(Русский) За год мошенничество с дипфейками увеличилось в 31 раз. Как распознать искусственные фото и видео?
Материал подготовлен в рамках Мастерской по фактчекингу, прошедшей в г. Алматы с 30 ноября по 2 декабря 2023 года.
В 2023 году количество случаев мошенничества, совершенных с помощью дипфейков (deepfake) во всем мире, увеличилось в 31 раз, то есть на 3000%. Об этом говорится в отчете Onfido (Identyty Fraud Report 2024) о мошенничестве, связанном с личными данными. Компания связывает резкий рост этого показателя с увеличением числа недорогих и простых онлайн-инструментов и доступностью генеративного искусственного интеллекта. В связи с этим актуальными становятся и решения, благодаря которым можно различать изображения и видео, созданные с помощью дипфейков.
Что такое дипфейки и как их используют мошенники?
Что же такое дипфейк? Это метод создания поддельного медиаконтента (аудио, изображения или видео) с помощью алгоритмов глубокого обучения. Если первые дипфейки заключались в простом «натягивании» лица какой-нибудь медийной персоны на лицо другого человека с помощью технологии FaceSwap, то со временем алгоритмы совершенствовались, дипфейки становились более качественными. В результате они стали инструментом в руках мошенников и начали причинять серьезные неудобства людям, подвергающимся атакам этих мошенников.
Специалисты компании Onfido отмечают, что за последние несколько лет появились общие черты мошенничества, совершаемого с помощью искусственного интеллекта. Эти признаки могут помочь обычным гражданам и крупным предприятиям защищаться от кибератак:
- Одним из важных общих показателей является то, что за последние 5 лет стало возможным определить, в какой период времени чаще всего совершаются мошенничества. До пандемии Covid-19 мошенники проявляли большую активность пять дней в неделю, замедляя темп работы во время выходных дней. В период пика пандемии мошенники стали активнее и в выходные. В связи с этим количество кибератак резко возросло. Таким образом, за последние несколько лет стало известно, что мошенники активно работают 7 дней в неделю. То есть мошенничество с использованием искусственного интеллекта превратилось в “общее дело”, имеющее глобальные взаимосвязи.
- Важно отметить, что данный вид мошенничества набирает обороты несколько раз в год. Эта активность связана с глобальными событиями. Например, когда карантин из-за COVID-19 был снят летом 2021 года или в периоды беспорядков, когда Россия вторглась в Украину в 2022 году. Волнения, неспособность правильно оценить ситуацию и отсутствие финансовой безопасности – именно эти три фактора больше всего способствуют росту мошеннической активности.
- Кроме того, мошенники ежегодно в декабре и в другие периоды праздничных дней и отпусков пытаются воспользоваться увеличением расходов государства в праздничные дни и увеличением количества международных поездок. Мошенники следуют за деньгами и пользуются беспорядками в стране.
Также компания поделилась тем, что в разных регионах наблюдается разное количество атак на различные типы документов. К примеру, компании, базирующиеся в Северной Америке, чаще всего сталкиваются с мошенничеством, связанным с паспортами и водительскими удостоверениями. В США существует процветающий рынок поддельных водительских удостоверений, из-за чего доля мошенничества с использованием данного типа документов высока, наряду с паспортами.
Для сравнения, предприятия, базирующиеся в Европе и Азии, с большей вероятностью столкнутся с поддельными национальными удостоверениями личности, которые являются гораздо более распространенными в этих регионах, чем в Северной Америке. Стоит также отметить, что в то время как европейские компании могут столкнуться с более высокой долей поддельных паспортов, компании, базирующиеся в Азии, с большей вероятностью столкнутся с поддельными налоговыми удостоверениями.
Что могут сделать мошенники с помощью DeepFake?
- Подписывают счет физического лица в банке, крадут деньги или оформляют кредит от имени человека;
- Похищают данные умершего, «оживляют» и проводят онлайн-операции в банке от его имени;
- Создают нового «человека», которого не существует, используя его данные для совершения крупных финансовых операции;
- Создавая фейковые видео-обращения от имени известных личностей, открывают сборы денег;
- Шантажируют отредактированными фотографиями, требуя денежные средства;
- Распространяют поддельные фото и видео, чтобы разжечь вражду между странами, национальностями и т. п.
Как это проявляется на практике?
Изначально, как было отмечено выше, пользователи Сети начали использовать инструмент дипфейк для развлечения. Однако со временем стали фиксироваться случаи, когда новая технология стала использоваться мошенниками.
В 2019 году был зарегистрирован один из первых крупных случаев мошенничества, совершенного с помощью дипфейка. В Великобритании мошенники с помощью искусственного интеллекта экстренно перевели на свои счета 220 тысяч евро, используя голос главы крупной энергетической компании. Когда мошенники потребовали доплату, менеджер заметил, что-то неладное, и в ходе проверки обнаружилось хакерская атака. Однако найти мошенников и вернуть средства не удалось.
Официальных фактов мошенничества с применением дипфейков в Кыргызстане и Казахстане пока не зарегистрировано. Тем не менее, в социальных сетях появились фейковые сообщения от имени президента РК Касым-Жомарта Токаева, казахстанского комика Нурлана Сабурова, инвестора и бизнесмена Маргулана Сейсембаева, спортсмена Шавката Рахмонова.
Как распознать фото или видео созданное с помощью deepfake?
Массачусетский технологический институт (MIT) запустил исследовательский проект и веб-сайт под названием Detect Fakes, который помогает людям обнаруживать дипфейки. В описании проекта MIT представляет восемь вопросов, которые помогут людям определить, является ли видео дипфейком.
Если вы не хотите прибегать к помощи специальных программ, обратите внимание на следующие признаки:
- Обратите внимание на то, меняется ли лицо человека во время движения.
- Тщательно проверьте кожу лица. Не является ли она слишком гладкой или морщинистой?
- Deepfake в большинстве случаев не может полностью показать естественную физику тени.
- Замечаете ли блики на очках? Не слишком сильно блестит?
- Естественно ли выглядят волосы на лице? Искусственный интеллект может нарисовать усы, бороды, бакенбарды. Однако волосы не могут выглядеть естественно.
- Обратите внимание на то, как выглядят родинки на лице. Естественно ли они смотрятся?
- Не часто ли моргает человек? Моргает ли вообще?
- Обратите внимание на размер и цвет губ.
Кроме того:
- Увеличьте масштаб изображения и внимательно осмотрите. Изображения, созданные с помощью искусственного интеллекта, на первый взгляд кажутся реальными. Однако, когда вы смотрите на изображение крупным планом, вы замечаете детали, которые не соответствуют друг другу.
- Вы можете определить, где он был опубликован изначально, найдя источник изображения. В большинстве случаев помогают и комментарии под картинкой. Кроме того, вы можете попробовать выполнить обратный поиск изображения через Google, TinEye или Яндекс.
- Midjourney и DALL-E неправильно рисовали руки людей на изображениях, которые они изначально создавали. Иногда на руке человека “рос” шестой палец или были только четыре пальца. Эксперт по искусственному интеллекту Генри Адждер предупредил, что новая версия таких программ, как Midjourney, начала правильно рисовать сложные части тела, как руки.
- Обратите внимание на фон. Между фоном и человеком на картинке может отсутствовать визуальная связь. Также происходит опечатка деталей.
С помощью каких программ можно определить Deepfake?
Фото и видео, созданные с помощью искусственного интеллекта, могут быть обнаружены сканерами Deepware, Microsoft Video Authenticator и Hive AI Detector. Указанные выше приложения сканируют фото и видео, чтобы убедиться, что они поддельные или настоящие.
Чтобы использовать Hive AI Detector, вам нужно будет его установить. Данное приложение проверяет фотографию на подлинность. Например, возьмем фотографию из статьи, опубликованную на портале Informburo.kz. Попробуем отсканировать и проверить на подлинность с помощью приложения Hive Al Detector.
Было обнаружено, что эта картина полностью создана искусственным интеллектом.
Если посмотреть видео-обращение президента Касым-Жомарта Токаева, то результат следующий:
Для использования приложений Deepware, Microsoft Video Authenticator нужно вставить ссылку на видео в поисковую строку. Далее можно выявить в процентах подлинность видео-ролика. Microsoft Video Authenticator способно анализировать неподвижные фотографии и видео. Оно может обнаружить границу между действительными и поддельными элементами. Кроме того, оно предоставляет возможность оценки достоверности контента в режиме реального времени, что позволяет быстро распознавать дипфейки.
Как видно, фотографии и видеоролики, созданные искусственным интеллектом и способные убедительно имитировать реальных людей, представляют серьезную угрозу подлинности онлайн-контента. У них есть потенциал разрушать все, начиная от личных до межгосударственных отношений. Именно поэтому необходимость в эффективных инструментах и методах распознавания дипфейков становится более актуальной, чем когда-либо.
Предлагаемые нами инструменты и методы являются передовыми достижениями в этой области. Они используют передовые алгоритмы искусственного интеллекта для анализа и обнаружения дипфейков с более высокой точностью, чем другие приложения – от анализа тонких элементов видео в оттенках серого до отслеживания выражений лица и движений объектов.Однако с развитием технологий, лежащих в основе дипфейков, наши методы обнаружения также должны развиваться. Динамически изменяющаяся природа развития технологии дипфейков требует, чтобы наши инструменты и методы шли в ногу со временем. Это потребует постоянных исследований и разработок, а также сотрудничества между исследователями, технологическими компаниями и политиками.
Важно помнить, что решение проблемы дипфейков не сводится только к техническим аспектам. Образование и осведомленность также играют важную роль. Необходимо эффективно просветить людей о возможностях и опасностях дипфейков, чтобы они могли более критически относиться к информации и находить признаки возможной манипуляции. Будучи хорошо осведомленными о последних достижениях в области распознавания дипфейков, каждый из нас может внести свой вклад в борьбу с этой угрозой.