(Кыргыз) Дипфейктер деген эмне жана эмнеси менен алар коркунучтуу?

Facial Recognition System concept.

Sorry, this entry is only available in Kyrgyz and Russian.

Украинанын президенти Владими Зеленский «Украин элин багынып берүүгө чакырган» же Орусия президенти Владимир Путин «Украина тарап менен сүйлөшүүлөр Орусиянын пайдасына чечилди» деп билдирген видеолорду көрдүңөр беле? Көрсөңөр, анда силер дипфейк менен таанышкан болосуңар.

Дипфейк – бул жасалма интеллектин жардамы менен даярдалган, жасалма экендигин аныктоо оор болгон аудио же видеоролик. Ушундай жол менен саясатчыларга, белгилүү адамдарга каалаган сөздөрдү сүйлөтүп, алар кылбаган нерсени кылгандай кылып көрсөтүп койсо болот.

Жыл сайын дипфейктердин саны геометриялык прогрессияда өсүп жатат. Эгерде 2019-жылы Sentinel жүргүзгөн эсеп боюнча, 14 миң дипфейк аныкталган болсо, 2020-жылы бул технологияны колдонуу менен өндүрүлгөн фейк видеолордун саны 145 миңге жетти.

Дипфейктер качан пайда болгон?

2017-жылы Reddit сайтында (жаңылык веб-сайты жана форум – ред. эск.) дипфейк (Deepfake) тууралуу биринчи жаңылык жарыяланган, анда жасалма интеллектини колдонуу менен видеодогу адамдын жүзүн кантип өзгөртсө болоору көрсөтүлгөн болчу.

Бул ыкманын аталышы deep learning (терең окуп үйрөнүү) жана fake (жалган) деген англис сөздөрүнөн куралган. Терең окуп үйрөнүү – бул генеративдик-таймашуу тармагы (GAN) аталышта белгилүү машинаны окутуу ыкмасы. Бул технологияны 2014-жылы эле Стэнфорд университетинин студенти Ян Гудфеллоу ойлоп чыгарган.

GAN-дын генератор жана дискриминатор түрүндөгү эки нейрондук тармагы бара, алар так жыйынтыкка жетиш үчүн бир-бири менен таймашууда болушат.

Башкача айтканда, генератор жасалманы жасайт, ал эми дискриминатор анын каталарын издейт. Система керектүү жыйынтыкка жетмейин өзүн улам-улам оңдоп-түзөп турат жана система канчалык көп убакыт окуп-үйрөнсө, ошончолук жасалма видеону чындыктан айырмалоо оор болот.

Ал мына ушундай иштейт

Эмнеси менен алар коркунучтуу?

Бүгүнкү күндө дипфейкти аныктоо өтө татаал. Саясий тармактагы эң биринчи жана эң белгилүү дипфейк – 2019-жылы АКШ Конгрессинин Өкүлдөр палатасынын спикери Нэнси Пелоси тартылган видео ролик болду. Видеодо анын сүйлөөсү начар, ошого байланыштуу ал мас болгондуктан, чулдурап сүйлөгөндөй элес калтырат. Politics WatchDog сайтында жарыяланган видео 2,7 млн жолу көрүлүп, 50 миң колдонуучу аны менен бөлүшкөн.

Синтетикалык видео кайсы бир саясый кызыкчылыкта гана эмес, кара ниетте да жасалат. Мисалы, 2019-жылы кылмышкерлер жасалма интеллектин негизиндеги программаны колдонуп, 220 000 евро накталай акчаны уурдап алышкан. Британдык энергетикалык компаниянын генералдык директору өзүнүн жетекчиси менен сүйлөшүп жатам деген ойдо болуп, венгерлик өнөккө акча которгон. Euler Hermes Group SA камсыздоочу компаниянын билдирүүсу боюнча, чалган адам ылдамдыкты талап кылган өтүнүч деп, каражат бир сааттын ичинде төлөнүшү керектигин айткан.

2021-жылы Кытайда эки шылуун дипфейктин жардамы менен салык кызматынын адамдын жүзүн аныктоо системасын алдашып, $76,2 млн каражатты чыгарып кетишкен. Аферисттер дипфейк-тиркемелердин жардамы менен адамдардын фотосүрөттөрүн иштетишкен. Андан соң эч ким ажырата албагандай кылып фотодогу жана видеодогу адамдардын жүздөрүн өзгөртүшкөн. Мына ушундай жол менен алар кытай идентификациялоо системасын алдашкан.

2022-жылы шылуундар дипфейкти жумушка орношуу үчүн колдонушкан. Бул тууралуу ФБРдын Интернет-кылмыштарга даттануулар борбору билдирген.

Алардын билдирүүсү боюнча, шылуундар маалыматтык технологияларга жана программаларга байланыштуу алыстан иштесе боло турган жумуштарды издешет. Аларды компаниялардын кардарлары тууралуу маалыматтары жана корпоративдик IT-базалары кызыктырат. Шылуундар резюмеде башка адамдардын сүрөттөрүн колдонушкан.

Дипфейктерди жакшы максатта колдонуунун мисалдары

Ошол эле кезде бул технологияны жакшы максатта колдонуунун толтура мисалдары бар, мисалы, кинематографияда жана жарнамада.

2021-жылы Хью Джекмандын катышуусундагы “Эскерүү” (“Воспоминание”) деген тасмага элдин кызыгуусун күчөтүш үчүн Warner Bros дипфейк-технологияны колдонууну чечкен. Каалаган адам сайтка кирип, өзүнүн сүрөтүн жүктөп Джекман менен бирге промороликтин каарманы боло алмак. Система сүрөт боюнча адам жүзүнүн кыймылын түзөт эле.

(select an image)

Synthesia британ компаниясы маляриянын коркунучу тууралуу Дэвид Бекхэмдин катышуусундагы соцроликти тартууда дипфейк-технологияны колдонгон. Роликте Бекхэм тогуз тилде сүйлөйт. Жасалма интеллект ар башка тилде айтылган сөздөрду Бекхэм өзү айтып жаткандай кылган.

Орусиялык Сбербанк дагы дипфейк-технологияларды колдонуп, “Иван Васильевич кесибин алмаштырат” деген тасманын каарманы Жорж Милославскийди “тирилткен”.

Биз көргөндөй, дипфейктерди жаратуу технологиялар жыл сайын улам татаалдашууда, аны менен катар сапаты жакшырып, аларды чындыктан ажыратуу да улам оорлоп барат.

Эмки макалада дипфейкти аныктоо жолдору, ага керек болгон аспаптар жана технологяилар тууралуу айтып бермекчибиз.