Как мошенники используют дипфейки и похищают деньги? Factcheck

Только за второй квартал 2022 года в России мошенники украли с банковских счетов более 2.8 млрд рублей, совершив свыше 211 тысяч денежных переводов без ведома клиентов. Чаще всего мошенники использовали телефонные звонки, реже — интернет-ресурсы, говорится в отчете Центробанка. 

Случай мошенничества с использованием дипфейка в России был замечен в  2021 году. Тогда мошенники создали дипфейк-рекламу, используя образ Олега Тинькова, где якобы миллиардер призывает инвестировать и получать бонусы, регистрируясь по ссылке. 

Редакция Factcheck.kg решила выяснить, насколько высоки риски стать жертвой мошенничества с помощью дипфейков.

Банковские тесты для проверки личности уязвимы

Согласно докладу Sensity, технологию для распознавания лиц (liveness tests), которую чаще всего используют банки, можно обмануть с помощью дипфейков. Исследователями Sensity был создан дипфейк на основе ID-карт, чтобы пройти liveness tests. В итоге в девяти из 10 случаев им удалось обмануть систему. 

По словам исследователей, дипфейк технологии представляют в первую очередь опасность именно для банковской сферы, поскольку в борьбе с конкуренцией представители этой сферы предлагают онлайн кредитование. 

Подобный случай уже был зафиксирован в 2021 году в Китае. Двое мошенников создали дипфейк, обманули систему распознавания лиц налоговой службы и провернули аферу на $76.2 млн. Аферисты обрабатывали фотографии людей с помощью дипфейк-приложений. Затем максимально реалистично подделывали изображение на фото или видео. Таким путем им удалось обмануть китайскую систему. 

Дипфейковые голоса

Клонирование голоса создается с помощью искусственного интеллекта. Технология продвинулась до такой степени, что она может воспроизводить человеческий голос с большой точностью и даже повторяет тон, пунктуацию и акцент.

В 2019 году в Великобритании мошеники с помощью голосового дипфейка завладели €220 тысячами. Генеральный директор британской энергетической компании подумал, что разговаривает по телефону со своим начальником, который попросил его перевести средства венгерскому поставщику. По сообщению страховой компании, звонивший сказал, что запрос срочный и предписал руководителю заплатить в течение часа.

Дипфейковые спутниковые снимки 

Доцент географии Вашингтонского университета Бо Чжао во время эксперимента создал программное обеспечение для генерации дипфейк спутниковых снимков и способах их обнаружения. 

Он отметил, что благодаря низкому разрешению спутниковых снимков их легче подделать, чем видеоролики или фотографии. В том числе, спутниковым снимкам заведомо больше доверия.  

Таким образом, они могут ввести заблуждение, демонстрируя лесные пожары или же наводнения. Кроме того власти страны могут дискредитировать историю. Географические дипфейки могут также представлять угрозу национальной безопасности, поскольку геополитические противники могут использовать их для введения друг друга в заблуждение. 

Как бороться с дипфейками?

На сегодняшний день искусственный интеллект может обнаружить дипфейки с точностью от 30% до 97%. К такому выводу пришли исследователи Университета Carnegie Mellon (с инструментами можете ознакомиться здесь). Наряду с этим, с дипфейками можно бороться и на законодательном уровне.

Так, к примеру, с 2020 года в Китае начал действовать закон, регулирующий распространение дипфейк видео и аудио материалов без соответствующего обозначения неправдивости и предусматривающий уголовную ответственность.  

В Калифорнии также запрещается распространение дипфейк видео, направленных на дискредитацию политических кандидатов и введение в заблуждение избирателей в течение 60 дней после выборов. В 2019 году Дональд Трамп подписал первый в стране федеральный закон, касающийся дипфейков.

В российском законодательстве дипфейки рассматриваются через призму производного произведения, при котором использование исходного произведения без согласия его правообладателя является незаконным.

В Великобритании на законодательном уровне закреплен факт, по которому право собственности на объекты, созданные машиной, имеет лицо, принявшее меры для создания такого произведения.

Как обстоят дела в Кыргызстане?

В Кыргызстане о случаях мошенничества с использованием технологии дипфейк ничего неизвестно. Но не стоит забывать, что более 1 млн кыргызстанцев находятся на заработках на территории России и являются потенциальными жертвами. 

Также стоит отметить, что для кыргызстанского законодательства искусственный интеллект – новый термин и его правовое регулирование пока отсутствует. 

Искусственный интеллект стремительно развивается и распространяется. Поэтому необходимо регулирование со стороны законодательства. 

Вместе с тем важно обратить внимание на вопросы авторского права и безопасности персональных данных, поскольку увеличилось количество приложений, позволяющих при помощи машинного обучения и нейронных сетей заменять лица известных личностей фотографиями пользователей, создавая реалистичные «фейковые» видео.

В результате исследований в сфере регулирования искусственного интеллекта международное сообщество выработало международные правила взаимодействия людей в связи с развитием систем ИИ, в том числе этики применения искусственного интеллекта. Разработанные международные акты в данной сфере могут послужить хорошим примером для разработки правовой базы Кыргызской Республики по регулированию искусственного интеллекта и новых технологий.