Фальшивая порнография
Дипфейковая порнография, или просто поддельная порнография, представляет собой разновидность синтетического порно, которое создается с помощью изменения уже существующих порнографических материалов путём применения технологии deepfake к лицу актрисы или актёра. Дипфейковое порно вызывает множество нареканий, поскольку обычно лица знаменитостей женского пола помещаются на тела порноактрис, причем без согласия тех и других.
ИсторияПравить
В 2017 году порнография с дипфейками наводнила Интернет, особенно платформу Reddit[1]. Первым роликом, привлёкшим ширококое внимание, стал дипфейк с Дейзи Ридли, о котором вышли несколько публикаций[1]. Другие известные порнографические дипфейки были сделаны с другими знаменитостями[1][2][3][4]. Согласно отчету, опубликованному в октябре 2019 года голландским стартапом Deeptrace, занимающимся кибербезопасностью, 96% всех дипфейков в Интернете были порнографическими[5].
В декабре 2017 года Саманта Коул опубликовала статью о дипфейках в Vice. Статья вызвала широкий резонанс.[6] Шесть недель спустя Коул написала в последующей статье о значительном росте поддельной порнографии с помощью искусственного интеллекта[7]. С тех пор Саманта Коул из Vice опубликовала серию статей, посвящённых новостям, связанным с дипфейковой порнографией[8][9][10][11][4][12][6][7].
Несколько социальных сетей запретили или предприняли усилия по ограничению дипфейковой порнографии. В частности, сабреддит r/deepfakes на Reddit был запрещен 7 февраля 2018 года из-за нарушения политики «недобровольной порнографии»[13][14][15][16][17][18]. В том же месяце представители Twitter заявили, что приостановят действие учетных записей, подозреваемых в публикации дипфейкового контента без согласия исполнителей и владельцев образов[19].
Скарлетт Йоханссон, частый объект дипфейкового порно, публично рассказала об этом в The Washington Post в декабре 2018 года[20]. Она заявила, что, несмотря на опасения, она не будет пытаться удалить какие-либо из своих дипфейков, поскольку считает, что они не влияют на её общественный имидж и что различные законы в разных странах и характер интернет-культуры делают любые попытки удалить дипфейки «безнадёжным делом»[20]. В то время как такие знаменитости, как она, защищены своей славой, она считает, что дипфейки представляют серьезную угрозу для менее известных женщин, репутация которых может быть подорвана несогласованным изображением в дипфейковой порнографии или порномести[20].
DeepNudeПравить
В июне 2019 года было выпущено загружаемое приложение для Windows и Linux под названием DeepNude, в котором использовались нейронные сети, в частности генеративно-состязательные сети, для удаления одежды с изображений женщин. У приложения была как платная, так и бесплатная версия, первая стоила 50 долларов[21]. 27 июня создатели удалили приложение и вернули деньги потребителям, хотя различные копии приложения, как бесплатные, так и платные, продолжают хождение[22]. На GitHub версия этой программы с открытым исходным кодом под названием «open-deepnude» была удалена[23]. Версия с открытым исходным кодом имела то преимущество, что позволяла обучаться на большем наборе данных изображений обнаженной натуры, чтобы повысить уровень точности получаемого изображения обнаженной натуры[24].
Дипфейк CSAMПравить
Технология Deepfake сделала создание материалов о сексуальном насилии над детьми (CSAM), также часто называемых детской порнографией, быстрее, безопаснее и проще, чем когда-либо. Дипфейки можно использовать для создания новых CSAM из уже существующих материалов или создания CSAM с изображением детей, которые не подвергались реальному сексуальному насилию. Однако Deepfake CSAM может иметь реальные и прямые последствия для детей, включая клевету, домогательства, вымогательства и издевательства[25]. Кроме того, дипфейковая детская порнография создает дополнительные препятствия для полиции, усложняя уголовные расследования и идентификацию жертв.
Этические дебатыПравить
Программное обеспечение для дипфейковой порнографии может быть использовано не по назначению для создания порномести против человека, что может быть расценено как форма домогательства[22].
В настоящее время кадры, созданные с помощью программного обеспечения, такого как DeepNude, все еще далеки от того, чтобы быть неотличимыми от реальных кадров при судебном анализе[24].
Усилия компаний по ограничению видеозаписи дипфейковой порнографииПравить
31 января 2018 года Gfycat начал удалять со своего сайта все дипфейки[26][27].
В феврале 2018 года Reddit забанил r/deepfakes за распространение несогласованной порнографии[18]. Другие веб-сайты также запретили использование дипфейков для принудительной порнографии, в том числе платформа социальных сетей Twitter и порносайт Pornhub[19]. Тем не менее, некоторые веб-сайты, в том числе 4chan и 8chan, не запретили дипфейк-контент[28].
Также в феврале 2018 года Pornhub заявил, что запретит дипфейковые видео на своем веб-сайте, поскольку они считаются «контентом без согласия», что нарушает их условия обслуживания[29]. Ранее они также заявляли Mashable, что удалят контент, помеченный как дипфейки[30]. В статье 2018 года авторы из Motherboard сообщили, что поиск «дипфейков» на Pornhub по-прежнему выдаёт несколько недавних видео с дипфейками[9].
Чат-сайт Discord в прошлом принимал меры против дипфейков [31] и занимал общую позицию в отношении дипфейков[32][33]. В сентябре 2018 года Google добавил «несогласованные синтетические порнографические изображения» в свой список запретов, что позволило любому запрашивать блок результатов, изображающих их поддельные обнаженные тела.[34]
ПримечанияПравить
- ↑ 1 2 3 Roettgers, Janko. Porn Producers Offer to Help Hollywood Take Down Deepfake Videos (англ.), Variety (21 February 2018). Дата обращения: 28 февраля 2018.
- ↑ Goggin, Benjamin. From porn to 'Game of Thrones': How deepfakes and realistic-looking fake videos hit it big (англ.). Business Insider. Дата обращения: 9 ноября 2019.
- ↑ Lee, Dave. 'Fake porn' has serious consequences (англ.) (3 February 2018). Дата обращения: 9 ноября 2019.
- ↑ 1 2 Cole. Gfycat's AI Solution for Fighting Deepfakes Isn't Working (англ.). Vice (19 июня 2018). Дата обращения: 9 ноября 2019.
- ↑ The State of Deepfake - Landscape, Threats, and Impact (англ.). Deeptrace (1 октября 2019). Дата обращения: 7 июля 2020.
- ↑ 1 2 Cole, Samantha. AI-Assisted Fake Porn Is Here and We're All Fucked (англ.). Vice (11 декабря 2017). Дата обращения: 19 декабря 2018.
- ↑ 1 2 Cole. We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now (англ.). Vice (24 января 2018). Дата обращения: 15 декабря 2019.
- ↑ Cole. This Deepfake of Mark Zuckerberg Tests Facebook's Fake Video Policies (англ.). Vice (11 июня 2019). Дата обращения: 15 декабря 2019.
- ↑ 1 2 Cole, Samantha. Pornhub Is Banning AI-Generated Fake Porn Videos, Says They're Nonconsensual (англ.). Vice (6 февраля 2018). Дата обращения: 9 ноября 2019.
- ↑ Cole. AI-Generated Fake Porn Makers Have Been Kicked Off Their Favorite Host (англ.). Vice (31 января 2018). Дата обращения: 18 ноября 2019.
- ↑ Cole, Samantha; Maiberg, Emanuel; Koebler, Jason This Horrifying App Undresses a Photo of Any Woman with a Single Click (англ.). Vice (26 июня 2019). Дата обращения: 2 июля 2019.
- ↑ Cole, Samantha. Twitter Is the Latest Platform to Ban AI-Generated Porn (англ.). Vice (6 февраля 2018). Дата обращения: 8 ноября 2019.
- ↑ Böhm, Markus. "Deepfakes": Firmen gehen gegen gefälschte Promi-Pornos vor (нем.), Der Spiegel (7 Februar 2018). Дата обращения: 9 ноября 2019.
- ↑ Barbara Wimmer. Deepfakes: Reddit löscht Forum für künstlich generierte Fake-Pornos (нем.). futurezone.at (8 февраля 2018). Дата обращения: 9 ноября 2019.
- ↑ Deepfakes: Auch Reddit verbannt Fake-Porn (нем.). heise online. Дата обращения: 9 ноября 2019.
- ↑ Reddit verbannt Deepfake-Pornos (нем.). der Standard. Дата обращения: 9 ноября 2019.
- ↑ Robertson, Adi. Reddit bans 'deepfakes' AI porn communities (англ.). The Verge (7 февраля 2018). Дата обращения: 9 ноября 2019.
- ↑ 1 2 Kharpal, Arjun. Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor (англ.), CNBC (8 February 2018). Дата обращения: 20 февраля 2018.
- ↑ 1 2 Cole, Samantha. Twitter Is the Latest Platform to Ban AI-Generated Porn (англ.). Vice (6 февраля 2018). Дата обращения: 8 ноября 2019.
- ↑ 1 2 3 Scarlett Johansson on fake AI-generated sex videos: 'Nothing can stop someone from cutting and pasting my image' (англ.), The Washington Post (31 December 2018). Дата обращения: 19 июня 2019.
- ↑ Cole, Samantha; Maiberg, Emanuel; Koebler, Jason This Horrifying App Undresses a Photo of Any Woman with a Single Click (англ.). Vice (26 июня 2019). Дата обращения: 2 июля 2019.
- ↑ 1 2 DeepNude AI copies easily accessible online (англ.). The Verge (3 июля 2019).
- ↑ Cox, Joseph. GitHub Removed Open Source Versions of DeepNude (англ.), Vice Media (July 9, 2019).
- ↑ 1 2 Redmon, Jennifer. DeepNude - the AI that “Undresses” Women - is Back. What Now? (англ.). Cisco Blogs (7 июля 2019). Дата обращения: 22 декабря 2022.
- ↑ Kirchengast, T (2020). “Deepfakes and image manipulation: criminalisation and control”. Information & Communications Technology Law [англ.]. 29 (3): 308—323. DOI:10.1080/13600834.2020.1794615.
- ↑ Cole, Samantha. AI-Generated Fake Porn Makers Have Been Kicked Off Their Favorite Host (англ.). Vice (31 января 2018). Дата обращения: 18 ноября 2019.
- ↑ Ghoshal, Abhimanyu. Twitter, Pornhub and other platforms ban AI-generated celebrity porn (англ.). The Next Web (7 февраля 2018). Дата обращения: 9 ноября 2019.
- ↑ Hathaway, Jay. Here's where 'deepfakes,' the new fake celebrity porn, went after the Reddit ban (англ.). The Daily Dot (8 февраля 2018). Дата обращения: 22 декабря 2018.
- ↑ Cole, Samantha. Pornhub Is Banning AI-Generated Fake Porn Videos, Says They're Nonconsensual (англ.). Vice (6 февраля 2018). Дата обращения: 9 ноября 2019.
- ↑ Damon Beres and Marcus Gilmer. A guide to 'deepfakes,' the internet's latest moral crisis (англ.). Mashable (2 февраля 2018). Дата обращения: 9 ноября 2019.
- ↑ Price, Rob. Discord just shut down a chat group dedicated to sharing porn videos edited with AI to include celebrities (англ.). Business Insider Australia (27 января 2018). Дата обращения: 28 ноября 2019.
- ↑ Ghoshal, Abhimanyu. Twitter, Pornhub and other platforms ban AI-generated celebrity porn (англ.). The Next Web (7 февраля 2018). Дата обращения: 9 ноября 2019.
- ↑ Twitter bans 'deepfake' AI-generated porn (англ.). Engadget. Дата обращения: 28 ноября 2019.
- ↑ Harrell, Drew. Fake-porn videos are being weaponized to harass and humiliate women: 'Everybody is a potential target' (англ.), The Washington Post. Дата обращения: 1 января 2019.