Кантип шылуундар дипфейктерди колдонуп, акчаны уурдашууда? Factcheck

2022-жылдын экинчи кварталында гана Орусияда шылуундар кардарларга билгизбей  211 миңден ашык акча которуу жүргүзүп, банктык эсептерден 2.8 млрд рубль уурдашкан. Шылуундар көп учурда телефондук чалууларды колдонушат, ал эми интернет-кызматтарды – сейрегирээк, деп айтылат Центробанктын отчетунда.

Дипфейкти колдонуу менен шылуундук кылуу аракети Орусияда 2021-жылы катталган. Шылуундар Олег Тиньковдун образын колдонуп дипфейк-жарнама жасашкан. Анда “дипфейк” миллиардер шилтеме аркылуу өтүп катталып, инвестиция кылууга жана бонус алууга чакырат.

Factcheck.kg редакциясы, дипфейктерди колдонгон шылуундардын тузагына илинип калуунун ыктымалдуулугу кандай экенин текшерип көрдү.

Банктар колдонгон адамдын өздүгүн аныктоо тесттерин алдаса болот

Sensity уюмунун докладу боюнча, банктар көп колдонгон адамды жүзүнөн аныктоо технологиясын дипфейктердин жардамы менен алдаса болот. Sensity’нин изилдөөчүлөрү liveness тестинен өтүш үчүн ID-картанын негизинде дипфейкти жасашкан. Жыйынтыгында 10 аракеттин 9унда алар системаны алдай алышкан.

Изилдөөчүлөрдүн айтымында, дипфейк технологиялар, биринчи кезекте, банктар үчүн коркунуч жаратат, анткени алар бири-бири менен атаандашып онлайн насыя берүүнү сунуштай башташты.

Ушуга окшош окуя 2021-жылы Кытайда катталган болчу. Эки шылуун дипфейк жасап, салык кызматынын адамды жүзүнөн аныктоо системасын алдап, $76.2 млн уурдаганга жетишкен. Алар дипфейк-тиркемелердин жардамы менен адамдардын сүрөттөрүн иштетип чыгышкан. Жыйынтыгында керектүү адамга эң окшош сүрөттөрдү жана видеолорду жасашкан. Ушундай жол менен алар кытайлык системаны алдай алышкан.

Дипфейк үндөр

Үндү жасоо жасалма интеллектти колдонуу менен жүргүзүлөт. Азыркы технологиялар ушундай деңгээлге жетти – адамдын үнүн гана эмес, анын акценинке чейин сүйлөө өзгөчөлүгүн да окшоштурса болот.

2019-жылы Улуубританияда шылуундар үн дипфейктерди колдонуп €220 миң уурдай алышкан. Британдык энергетикалык компаниянын гендиректору өз жетекчиси менен сүйлөшүп жатам деп ойлогон. “Фейк” жетекчи каражатты Венгриядагы өнөккө которууну айткан. Камсыздардыруучу компаниянын билдирүүсүндө, чалган адам акчаны бир сааттын аралыгында которуу керек экенин билдирген.

Дипфейк спутник сүрөттөрү

Вашингтон университетинин география кафедрасынын доценти Бо Чжао эксперименттерди жүргүзүп жатып, дипфейк спутник сүрөттөрүн жасай алган жана аларды аныктай алган программалык камсыздоону жасаган.

Ал белгилегендей, спутник сүрөттөрүнүн тактыгы начар болгондуктан аларды видеороликтерге же фотографияларга караганда жасалмалоо жеңилирээк. Ошол эле кезде элде спутник сүрөттөрүнө ишеним көбүрөөк болот.

Ушуга байланыштуу, жалган токой өрттөрүн же суунун капташын көрсөтүп, алдаса болот. Ошондой эле өлкөнүн бийликтеринде тарыхты аларга керектүү нукта берүүгө мүмкүнчүлүк түзүлөт. Географиялык дипфейктер улуттук коопсуздукка коркунуч жаратышы мүмкүн, анткени саясий айдыңдагы атаандаштар бири-бирин алдаш үчүн аны колдона алышат.

Дипфейктер менен кантип күрөшсө болот?

Бүгүнкү күндө жасалма иштеллект дипфейкти 30-97% тактык менен аныктай алат. Carnegie Mellon университетинин изилдөөчүлөрү ушундай жыйынтыкка келишкен (аспаптар тууралуу маалыматтарды бул жерден алса болот). Аны менен катар дипфейктер менен мыйзамдын алкагында да күрөшсө болот.

Мисалы, 2020-жылдан бери Кытайда дипфейк видео жана аудио материалдарды алардын жасалма экенин билдирбестен таркатуу кылмыш иши болуп эсептелет.

Калифорнияда да шайлоо аяктаганына 60 күн болгуча саясий талапкерди жамандаган жана шайлоочуларды жаңылыш чечимге түрткөн дипфейк видеолорду таркатууга тыюу салынган. 2019-жылы Дональд Трамп дипфейкке тийиштүү биринчи федералдык мыйзамга кол койгон.

Орусиянын мыйзамчылыгында дипфейкке түп нуска чыгарманын негизиндеги чыгарма катары карашат. Түп нускага укугу бар тараптын урусатысыз аны колдонуу мыйзамсыз деп эсептелет.

Улуубританиянын мыйзамы боюнча, машина жараткан объектке менчик укугу ушул объекттин жаралышына түздөн түз катышы, же аракети бар тарапка берилет.

Ал эми Кыргызстанда абал кандай?

Кыргызстанда дипфейк технологияларын колдонуп шылуундук кылуу учурлары тууралуу азырынча маалымат жок. Бирок да 1 миллиондон ашык кыргызстандыктар чет жерде жүрөт, алар шылуундардын курмандыктары болуп калышы толук мүмкүн.

Кыргызстан мыйзамчылыгы үчүн жасалма интеллект деген жаңы түшүнүк жана ага байланыштуу маселелерди жөнгө салуу мыйзамдарда каралган эмес.

Жасалма интеллект эбегейсиз тездикте өнүгүүдө жана аны колдонуу учурлары көбөйүүдө. Ошондуктан мыйзамдык жөнгө салуу зарыл.

Ошол эле кезде автордук укук, жеке маалыматтардын коопсуздугу деген маселелерге көңүл буруу керек, анткени учурда машиналык окутууну жана нейрондук тармактарды колдонуп белгилүү инсандардын сүрөттөрүн колдонуучулардын сүрөттөрү менен алмаштырып, жасалмалыгын аныктоо оор болгон фейк видеолорду жасоо мүмкүнчүлүгүн берген тиркемелердин саны көбөйдү.

Жасалма интеллектини жөнгө салуу тармагындагы изилдөөлөрдүн негизинде эл аралык коомчулук жасалма интеллект системаларынын өнүгүүсүнө байланыштуу адамдардын өз ара аракеттенүүсүнүн эл аралык эрежелерин иштеп чыгышты, ага жасалма интеллектти колдонуунун этикасы да кирет. Бул багыттагы иштелип чыккан эл аралык актылар Кыргыз Республикасынын жасалма интеллектти жана жаңы технологияларды жөнгө салуу боюнча укуктук базасын түзүүгө жакшы өбөлгө боло алат эле.