Что такое дипфейки и почему они опасны?
Видели ли вы видео, где президент Украины Владимир Зеленский «призывал народ Украины сдаться» или же видео президента России Владимира Путина с заявлением “о завершении переговоров с украинской стороной в пользу России”. Если да, то вы наткнулись на дипфейк.
Дипфейк – это аудио или видеоролик, который создается с помощью программного обеспечения искусственного интеллекта и выглядит реалистично. Таким образом в уста политиков и известных людей можно вложить все, что угодно и делать то, что они никогда не совершали.
Ежегодно число дипфейков растет в геометрической прогрессии. Так, если в 2019 году по данным Sentinel было обнаружено около 14 тысяч дипфейков, то в 2020 году число фейковых видео, созданных с использованием этой технологии, насчитали порядка 145 тысяч.
Когда появились дипфейки?
В 2017 году появилось первое сообщение о дипфейках (Deepfake) на сайте Reddit (новостной веб-сайт и форум — прим.ред.), где показали, как можно использовать искусственный интеллект для изменения лица на видео.
Этот метод получил название от английского слова deep learning (глубокое обучение) и fake (фальшивый). Глубокое обучение – это метод машинного обучения известного, как генеративно-состязательная сеть (GAN). Эту технологию разработал еще в 2014 году студент Стэнфордского университета Ян Гудфеллоу.
GAN имеет две нейронные сети в виде генератора и дискриминатора, которые соревнуются друг с другом, чтобы получить более точные результаты.
Иначе говоря, генератор пытается создать подделку, а дискриминатор ищет ошибки. Система совершенствует себя многократно, пока не достигнет необходимого результата и чем дольше система обучается, тем создается более точная видео подделка.
Вот как это все работает
Чем они опасны?
На сегодняшний день дипфейки выглядят очень реалистично. Одним из первых и популярных примеров дипфейков на политической сцене стал ролик со спикером Палаты представителей Конгресса США Нэнси Пелоси в 2019 году. На видео ее речь искажена, из-за чего кажется, что она пьяна и у нее заплетается язык. Видео, опубликованное на странице Politics WatchDog, посмотрели более 2.7 млн раз, записью поделились почти 50 тысяч пользователей.
Синтетические видео создаются не только для влияния на политическую арену, но и с преступными намерениями. К примеру, в 2019 году преступники использовали программное обеспечение на основе искусственного интеллекта, чтобы завладеть денежными средствами в размере €220 тысяч. Генеральный директор британской энергетической компании подумал, что разговаривает по телефону со своим начальником, который попросил его перевести средства венгерскому поставщику. По сообщению страховой компании Euler Hermes Group SA, звонивший сказал, что запрос срочный и предписал руководителю заплатить в течение часа.
В 2021 году двое мошенников в Китае с помощью дипфейков обманули систему распознавания лиц налоговой службы и провернули аферу на $76.2 млн. Аферисты обрабатывали фотографии людей с помощью дипфейк-приложений. Затем максимально реалистично подделывали изображение на фото или видео. Таким путем им удалось обмануть китайскую систему идентификации.
В 2022 году злоумышленники стали использовать дипфейки для устройства на работу. Об этом сообщает Центр жалоб на интернет-преступления ФБР.
По их данным, мошенники ищут удаленную работу, связанную с информационными технологиями и программным обеспечением. В приоритете возможный доступ к персональным данным клиентов и корпоративным IT-базам. При этом в резюме используются данные других лиц.
Положительные примеры по использованию дипфейков
В тоже время имеются примеры использования этой технологии и в положительных направлениях, например, в кинематографе и рекламе.
В 2021 году для раскрутки фильма “Воспоминание” с Хью Джекманом от Warner Bros решили применить дипфейк-технологию. Любой человек мог зайти на сайт, загрузить свое фото и оказаться героем проморолика вместе с Джекманом. Система создавала анимацию лица из фотографии.
Британская компания Synthesia использовала дипфейк-технологию в социальной рекламе об опасности малярии с участием Дэвида Бекхэма. В ролике Бекхэма не просто озвучивают девять актеров. Благодаря искусственному интеллекту создается впечатление, что он сам произносит слова на девяти разных языках.
Сбербанк РФ также прибегал к дипфейк-технологиям и «вернул к жизни» Жоржа Милославского, героя фильма «Иван Васильевич меняет профессию».
Как мы видим, технологии создания дипфейков с каждым годом усложняются, при этом увеличивая качество и усложняя возможность распознавания.
В следующей статье мы расскажем о том, как распознавать дипфейки, а также какие инструменты и технологии для этого необходимы.