Deepfake
Deepfake (дипфейк, конкатенация англ. deep learning — «глубинное обучение» и fake[1] — «подделка») — методика синтеза изображения, основанная на искусственном интеллекте.
Методика синтеза изображения используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики. В подавляющем большинстве случаев для создания таких видео используют генеративно-состязательные нейросети (GAN). Одна часть алгоритма учится на реальных фотографиях определённого объекта и создаёт изображение, буквально «состязаясь» со второй частью алгоритма, пока та не начнёт путать копию с оригиналом[2].
ИсторияПравить
Deepfake используют для замены определённых элементов изображения на желаемые образы, в частности для создания фальшивых порнографических видео со знаменитостями или для порно-мести[3]. Среди всех видео с применением данной технологии порно-дипфейки составляют 96 %, причём 99 % из них делаются с участием популярных актрис и певиц[4]. Deepfake-порнография появилась в Интернете в 2017 году, в частности на Reddit[5], и была запрещена многими сайтами, включая сам Reddit, Twitter и Pornhub[6][7][8][9]. Deepfake также может быть использован для создания поддельных новостей и вредоносных обманов[10][11].
Deepfake-ролики можно легко найти на популярных сайтах потокового видео, таких как YouTube или Vimeo. Популярной программой является FakeApp[12], использующая TensorFlow[13].
Методы выявления движения и превращения в целевое видео, которое похоже на целевой образ, были представлены в 2016 году и позволяют создавать поддельные мимические изображения в существующем 2D-видео в режиме реального времени[14] . 1 сентября 2020 года компания Microsoft анонсировала свою новую разработку — Microsoft Video Authenticator, программное обеспечение, которое позволяет определить вмешательство в видео[15].
Технология deepfake использовалась в музейном пространстве: например, в Музее Сальвадора Дали во Флориде в честь 115-летия известного художника была организована специальная выставка Dalí Lives («Дали жив»). По словам кураторов проекта, на этом мероприятии «искусство встречает искусственный интеллект». Они использовали сгенерированный искусственным интеллектом прототип художника, который общался с посетителями музея, рассказывал им истории о своих картинах и жизни, а также делал селфи и присылал фотографии на почту посетителей[16].
В 2020 году Британский телеканал Channel 4 выпустил фейковое рождественское поздравление от королевы Елизаветы II с использованием технологии Deepfake[17]. Руководство телеканала объяснило произошедшее предупреждением о том, что с помощью технологии Deepfake можно вводить людей в заблуждение, но некоторые люди всё равно осудили действия телеканала[18][19].
Центр противодействия дезинформации Украины заявил в феврале 2022 года о том, что дипфейк может быть использован в информационно-психологической операции в ходе российского вторжения на Украину для создания ложного видео с заявлением о капитуляции Владимира Зеленского[20].
ПрименениеПравить
Дипфейки используется для создания фильмов, для замены лица одного актёра на другого. Используют для «оживления» умерших людей — создание видео с помощью фотографии и образца голоса.
Также используют дипфейки для видеосвязи, для сдачи экзаменов, для обмана или для шутки в видеочатах, для создания шуточных роликов с известными людьми.
См. такжеПравить
ПримечанияПравить
- ↑ Brandon, John. Terrifying high-tech porn: Creepy 'deepfake' videos are on the rise (англ.), Fox News (16 February 2018). Архивировано 15 июня 2018 года. Дата обращения: 25 апреля 2019.
- ↑ Евгения Созанкова. Дипфейки: как нейросети копируют реальность // screenlifer.com. — 2019. Архивировано 2 сентября 2019 года.
- ↑ What Are Deepfakes & Why the Future of Porn is Terrifying (англ.), Highsnobiety (20 February 2018). Архивировано 14 июля 2021 года. Дата обращения: 25 апреля 2019.
- ↑ 2020: эпоха дипфейков (рус.). Теплица социальных технологий (25 декабря 2020). Дата обращения: 26 декабря 2020. Архивировано 25 декабря 2020 года.
- ↑ Roettgers, Janko. Porn Producers Offer to Help Hollywood Take Down Deepfake Videos (англ.), Variety (21 February 2018). Архивировано 10 июня 2019 года. Дата обращения: 25 апреля 2019.
- ↑ Ghoshal, Abhimanyu Twitter, Pornhub and other platforms ban AI-generated celebrity porn (амер. англ.). The Next Web (7 февраля 2018). Дата обращения: 9 ноября 2019. Архивировано 20 декабря 2019 года. (англ.)
- ↑ It took us less than 30 seconds to find banned 'deepfake' AI smut on the internet (англ.). Архивировано 10 апреля 2019 года. Дата обращения: 25 апреля 2019.
- ↑ Kharpal, Arjun. Reddit, Pornhub ban videos that use A.I. to superimpose a person's face over an X-rated actor, CNBC (8 февраля 2018). Архивировано 10 апреля 2019 года. Дата обращения: 25 апреля 2019.
- ↑ PornHub, Twitter Ban 'Deepfake' AI-Modified Porn (англ.), PCMAG. Архивировано 10 апреля 2019 года. Дата обращения: 25 апреля 2019.
- ↑ Experts fear face swapping tech could start an international showdown (англ.). The Outline. Дата обращения: 28 февраля 2018. Архивировано 16 января 2020 года.
- ↑ Roose, Kevin. Here Come the Fake Videos, Too (англ.), The New York Times (4 March 2018). Архивировано 18 июня 2019 года. Дата обращения: 25 апреля 2019.
- ↑ FakeApp: Finally, a Program that Will Let You Seamlessly Put Donald Trump in Porn! (англ.), Reason.com (25 January 2018). Архивировано 22 марта 2018 года. Дата обращения: 25 апреля 2019.
- ↑ I’m using AI to face-swap Elon Musk and Jeff Bezos, and I’m really bad at it, The Verge. Архивировано 24 марта 2018 года. Дата обращения: 25 апреля 2019.
- ↑ Thies, Justus Face2Face: Real-time Face Capture and Reenactment of RGB Videos (неопр.). Proc. Computer Vision and Pattern Recognition (CVPR), IEEE. Дата обращения: 24 февраля 2018. Архивировано 26 февраля 2018 года.
- ↑ New Steps to Combat Disinformation (амер. англ.). Microsoft On the Issues (1 сентября 2020). Дата обращения: 26 декабря 2020. Архивировано 24 декабря 2020 года.
- ↑ Жанна Карамазова. Дипфейки в искусстве: как Сальвадор Дали воскрес из мертвых (неопр.). screenlifer.com. Дата обращения: 2 сентября 2019. Архивировано 2 сентября 2019 года.
- ↑ Британский телеканал выпустил рождественское поздравление от фейковой Елизаветы II | «Рамблер»
- ↑ «Чудовищное видео»: «Елизавета II» доказала опасность дипфейков | «Газета.ru»
- ↑ Королевский фейк: британцев возмутило видео с фальшивой Елизаветой II | «Смотрим»
- ↑ Росія може поширювати фальшиву «заяву про капітуляцію» Зеленського (укр.). www.ukrinform.ua. Дата обращения: 3 марта 2022. Архивировано 2 марта 2022 года.
ЛитератураПравить
- DeepFakes: Creation, Detection, and Impact : [англ.] / Edited by Loveleen Gaur. — CRC Press, 2022. — 166 p. — ISBN 978-1-03-213920-3.