Фальшивая порнография (Sgl,onfgx hkjukijgsnx)
Дипфейковая порнография, или просто поддельная порнография, представляет собой разновидность синтетического порно, которое создается с помощью изменения уже существующих порнографических материалов путём применения технологии deepfake к лицу актрисы или актёра. Дипфейковое порно вызывает множество нареканий, поскольку обычно лица знаменитостей женского пола помещаются на тела порноактрис, причем без согласия тех и других.
История
[править | править код]В 2017 году порнография с дипфейками наводнила Интернет, особенно платформу Reddit[1]. Первым роликом, привлёкшим ширококое внимание, стал дипфейк с Дейзи Ридли, о котором вышли несколько публикаций[1]. Другие известные порнографические дипфейки были сделаны с другими знаменитостями[1][2][3][4]. Согласно отчету, опубликованному в октябре 2019 года голландским стартапом Deeptrace, занимающимся кибербезопасностью, 96 % всех дипфейков в Интернете были порнографическими[5].
В декабре 2017 года Саманта Коул опубликовала статью о дипфейках в Vice. Статья вызвала широкий резонанс[6]. Шесть недель спустя Коул написала в последующей статье о значительном росте поддельной порнографии с помощью искусственного интеллекта[7]. С тех пор Саманта Коул из Vice опубликовала серию статей, посвящённых новостям, связанным с дипфейковой порнографией[8][9][10][11][4][12][6][7].
Несколько социальных сетей запретили или предприняли усилия по ограничению дипфейковой порнографии. В частности, сабреддит r/deepfakes на Reddit был запрещен 7 февраля 2018 года из-за нарушения политики «недобровольной порнографии»[13][14][15][16][17][18]. В том же месяце представители Twitter заявили, что приостановят действие учетных записей, подозреваемых в публикации дипфейкового контента без согласия исполнителей и владельцев образов[12].
Скарлетт Йоханссон, частый объект дипфейкового порно, публично рассказала об этом в The Washington Post в декабре 2018 года[19]. Она заявила, что, несмотря на опасения, она не будет пытаться удалить какие-либо из своих дипфейков, поскольку считает, что они не влияют на её общественный имидж и что различные законы в разных странах и характер интернет-культуры делают любые попытки удалить дипфейки «безнадёжным делом»[19]. В то время как такие знаменитости, как она, защищены своей славой, она считает, что дипфейки представляют серьезную угрозу для менее известных женщин, репутация которых может быть подорвана несогласованным изображением в дипфейковой порнографии или порномести[19].
DeepNude
[править | править код]В июне 2019 года было выпущено загружаемое приложение для Windows и Linux под названием DeepNude, в котором использовались нейронные сети, в частности генеративно-состязательные сети, для удаления одежды с изображений женщин. У приложения была как платная, так и бесплатная версия, первая стоила 50 долларов[20]. 27 июня создатели удалили приложение и вернули деньги потребителям, хотя различные копии приложения, как бесплатные, так и платные, продолжают хождение[21]. На GitHub версия этой программы с открытым исходным кодом под названием «open-deepnude» была удалена[22]. Версия с открытым исходным кодом имела то преимущество, что позволяла обучаться на большем наборе данных изображений обнаженной натуры, чтобы повысить уровень точности получаемого изображения обнаженной натуры[23].
Дипфейк CSAM
[править | править код]Технология Deepfake сделала создание материалов о сексуальном насилии над детьми (CSAM), также часто называемых детской порнографией, быстрее, безопаснее и проще, чем когда-либо. Дипфейки можно использовать для создания новых CSAM из уже существующих материалов или создания CSAM с изображением детей, которые не подвергались реальному сексуальному насилию. Однако Deepfake CSAM может иметь реальные и прямые последствия для детей, включая клевету, домогательства, вымогательства и издевательства[24]. Кроме того, дипфейковая детская порнография создает дополнительные препятствия для полиции, усложняя уголовные расследования и идентификацию жертв.
Этические дебаты
[править | править код]Программное обеспечение для дипфейковой порнографии может быть использовано не по назначению для создания порномести против человека, что может быть расценено как форма домогательства[21].
В настоящее время кадры, созданные с помощью программного обеспечения, такого как DeepNude, все еще далеки от того, чтобы быть неотличимыми от реальных кадров при судебном анализе[23].
Усилия компаний по ограничению видеозаписи дипфейковой порнографии
[править | править код]31 января 2018 года Gfycat начал удалять со своего сайта все дипфейки[25][26].
В феврале 2018 года Reddit забанил r/deepfakes за распространение несогласованной порнографии[18]. Другие веб-сайты также запретили использование дипфейков для принудительной порнографии, в том числе платформа социальных сетей Twitter и порносайт Pornhub[12]. Тем не менее, некоторые веб-сайты, в том числе 4chan и 8chan, не запретили дипфейк-контент[27].
Также в феврале 2018 года Pornhub заявил, что запретит дипфейковые видео на своем веб-сайте, поскольку они считаются «контентом без согласия», что нарушает их условия обслуживания[28]. Ранее они также заявляли Mashable, что удалят контент, помеченный как дипфейки[29]. В статье 2018 года авторы из Motherboard сообщили, что поиск «дипфейков» на Pornhub по-прежнему выдаёт несколько недавних видео с дипфейками[9].
Чат-сайт Discord в прошлом принимал меры против дипфейков[30] и занимал общую позицию в отношении дипфейков[26][31]. В сентябре 2018 года Google добавил «несогласованные синтетические порнографические изображения» в свой список запретов, что позволило любому запрашивать блок результатов, изображающих их поддельные обнаженные тела.[32]
Примечания
[править | править код]- ↑ 1 2 3 Roettgers, Janko (2018-02-21). "Porn Producers Offer to Help Hollywood Take Down Deepfake Videos". Variety (англ.). Архивировано 10 июня 2019. Дата обращения: 28 февраля 2018.
- ↑ Goggin, Benjamin. From porn to 'Game of Thrones': How deepfakes and realistic-looking fake videos hit it big (англ.). Business Insider. Дата обращения: 9 ноября 2019. Архивировано 8 ноября 2019 года.
- ↑ Lee, Dave (2018-02-03). "'Fake porn' has serious consequences" (англ.). Архивировано 1 декабря 2019. Дата обращения: 9 ноября 2019.
- ↑ 1 2 Cole. Gfycat's AI Solution for Fighting Deepfakes Isn't Working (англ.). Vice (19 июня 2018). Дата обращения: 9 ноября 2019. Архивировано 8 ноября 2019 года.
- ↑ The State of Deepfake - Landscape, Threats, and Impact (англ.). Deeptrace (1 октября 2019). Дата обращения: 7 июля 2020. Архивировано 9 августа 2020 года.
- ↑ 1 2 Cole, Samantha. AI-Assisted Fake Porn Is Here and We're All Fucked (англ.). Vice (11 декабря 2017). Дата обращения: 19 декабря 2018. Архивировано 7 сентября 2019 года.
- ↑ 1 2 Cole. We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now (англ.). Vice (24 января 2018). Дата обращения: 15 декабря 2019. Архивировано 7 сентября 2019 года.
- ↑ Cole. This Deepfake of Mark Zuckerberg Tests Facebook's Fake Video Policies (англ.). Vice (11 июня 2019). Дата обращения: 15 декабря 2019. Архивировано 12 октября 2019 года.
- ↑ 1 2 Cole, Samantha. Pornhub Is Banning AI-Generated Fake Porn Videos, Says They're Nonconsensual (англ.). Vice (6 февраля 2018). Дата обращения: 9 ноября 2019. Архивировано 1 ноября 2019 года.
- ↑ Cole. AI-Generated Fake Porn Makers Have Been Kicked Off Their Favorite Host (англ.). Vice (31 января 2018). Дата обращения: 18 ноября 2019. Архивировано 1 ноября 2019 года.
- ↑ Cole, Samantha; Maiberg, Emanuel; Koebler, Jason This Horrifying App Undresses a Photo of Any Woman with a Single Click (англ.). Vice (26 июня 2019). Дата обращения: 2 июля 2019. Архивировано 2 июля 2019 года.
- ↑ 1 2 3 Cole, Samantha. Twitter Is the Latest Platform to Ban AI-Generated Porn (англ.). Vice (6 февраля 2018). Дата обращения: 8 ноября 2019. Архивировано 1 ноября 2019 года.
- ↑ Böhm, Markus (2018-02-07). ""Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor". Der Spiegel (нем.). Архивировано 23 сентября 2019. Дата обращения: 9 ноября 2019.
- ↑ Barbara Wimmer. Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos (нем.). futurezone.at (8 февраля 2018). Дата обращения: 9 ноября 2019. Архивировано 8 февраля 2018 года.
- ↑ Deepfakes: Auch Reddit verbannt Fake-Porn (нем.). heise online. Дата обращения: 9 ноября 2019. Архивировано 10 апреля 2019 года.
- ↑ Reddit verbannt Deepfake-Pornos (нем.). der Standard. Дата обращения: 9 ноября 2019. Архивировано 9 ноября 2019 года.
- ↑ Robertson, Adi. Reddit bans 'deepfakes' AI porn communities (англ.). The Verge (7 февраля 2018). Дата обращения: 9 ноября 2019. Архивировано 24 сентября 2019 года.
- ↑ 1 2 Kharpal, Arjun (2018-02-08). "Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor". CNBC (англ.). Архивировано 10 апреля 2019. Дата обращения: 20 февраля 2018.
- ↑ 1 2 3 "Scarlett Johansson on fake AI-generated sex videos: 'Nothing can stop someone from cutting and pasting my image'". The Washington Post (англ.). 2018-12-31. Архивировано 23 мая 2022. Дата обращения: 19 июня 2019.
- ↑ Cole, Samantha; Maiberg, Emanuel; Koebler, Jason This Horrifying App Undresses a Photo of Any Woman with a Single Click (англ.). Vice (26 июня 2019). Дата обращения: 2 июля 2019. Архивировано 2 июля 2019 года.
- ↑ 1 2 DeepNude AI copies easily accessible online (англ.). The Verge (3 июля 2019). Дата обращения: 11 ноября 2022. Архивировано 8 февраля 2021 года.
- ↑ Cox, Joseph (2019-07-09). "GitHub Removed Open Source Versions of DeepNude" (англ.). Vice Media. Архивировано 24 сентября 2020. Дата обращения: 11 ноября 2022.
- ↑ 1 2 Redmon, Jennifer. DeepNude - the AI that “Undresses” Women - is Back. What Now? (англ.). Cisco Blogs (7 июля 2019). Дата обращения: 22 декабря 2022. Архивировано 7 марта 2021 года.
- ↑ Kirchengast, T (2020). "Deepfakes and image manipulation: criminalisation and control". Information & Communications Technology Law (англ.). 29 (3): 308—323. doi:10.1080/13600834.2020.1794615.
- ↑ Cole, Samantha. AI-Generated Fake Porn Makers Have Been Kicked Off Their Favorite Host (англ.). Vice (31 января 2018). Дата обращения: 18 ноября 2019. Архивировано 1 ноября 2019 года.
- ↑ 1 2 Ghoshal, Abhimanyu. Twitter, Pornhub and other platforms ban AI-generated celebrity porn (англ.). The Next Web (7 февраля 2018). Дата обращения: 9 ноября 2019. Архивировано 20 декабря 2019 года.
- ↑ Hathaway, Jay. Here's where 'deepfakes,' the new fake celebrity porn, went after the Reddit ban (англ.). The Daily Dot (8 февраля 2018). Дата обращения: 22 декабря 2018. Архивировано 6 июля 2019 года.
- ↑ Cole, Samantha. Pornhub Is Banning AI-Generated Fake Porn Videos, Says They're Nonconsensual (англ.). Vice (6 февраля 2018). Дата обращения: 9 ноября 2019. Архивировано 1 ноября 2019 года.
- ↑ Damon Beres and Marcus Gilmer. A guide to 'deepfakes,' the internet's latest moral crisis (англ.). Mashable (2 февраля 2018). Дата обращения: 9 ноября 2019. Архивировано 9 декабря 2019 года.
- ↑ Price, Rob. Discord just shut down a chat group dedicated to sharing porn videos edited with AI to include celebrities (англ.). Business Insider Australia (27 января 2018). Дата обращения: 28 ноября 2019. Архивировано из оригинала 15 декабря 2019 года.
- ↑ Twitter bans 'deepfake' AI-generated porn (англ.). Engadget. Дата обращения: 28 ноября 2019. Архивировано 15 декабря 2019 года.
- ↑ Harrell, Drew. "Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target'". The Washington Post (англ.). Архивировано 2 января 2019. Дата обращения: 1 января 2019.