Діпфейки: розбираємося з технологією та її наслідками

Всім відомо, що штучний інтелект — це найгарячіша тема останніх років. Ідея штучного інтелекту існує десятиліттями, але OpenAI запустив розмови наприкінці 2022 року і викликав глобальний ажіотаж. Важливо знати, що хоча штучний інтелект є проривною та революційною технологією, у неї є й темний бік, який не висвітлюється у повсякденних ЗМІ. Діпфейк — це щось, створене штучним інтелектом, що може спричинити численні наслідки, які можуть завдати шкоди, ускладнити ситуацію і навіть створити проблеми, пов'язані з законом.

Що таке діпфейк?

Діпфейк — це форма синтетичних медіа, яка використовує штучний інтелект для заміни реального зображення або відео, схожого на людину, іншою людиною. Ця технологія не нова: сучасний кінематограф використовує CGI для створення ефектів, яких немає в реальному житті. Однак у діпфейках використовується потужний штучний інтелект і машинне навчання для створення та маніпулювання візуальним і аудіоконтентом, який може легко ввести в оману. Простіше кажучи, «діпфейки» можуть створювати реалістичні на вигляд фальшиві відео коштом когось іншого.

Як створюються «діпфейки»? Технологія «діпфейків» походить від штучного інтелекту. Однак є кілька способів створити підроблене відео або зображення. Один із найпоширеніших способів — це використання просунутих нейронних мереж із залученням автокодерів, тобто технології, яка робить підміну облич. Спочатку вибирається основне відео, а потім колекція відео або зображень людини використовується для вставки в основне відео. Автокодер знаходить схожість між двома обличчями та розпаковує їх, перетворюючи в одне зображення або відео.

Інший тип технології машинного навчання для створення глибоких фейків — це GANs, або Генеративні змагальні мережі (Generative Adversarial Networks). Ця технологія виявляє та покращує недоліки в підробленому відео, що ускладнює їх виявлення декодерами. Для GAN два алгоритми глибокого навчання генерують кілька зображень, і шляхом запуску циклів зрештою з'являється реалістичне зображення абсолютно несправжніх людей.

Що таке технологія діпфейк і для чого вони використовуються?

Технологія діпфейків та діпфейк ШІ створюються за допомогою автокодерів або генеративних змагальних мереж. Більшість підроблених відеороликів створюють на висококласних настільних комп'ютерах із потужними графічними інструментами та програмами. Експертиза з виявлення збоїв у відео або зображеннях також вимагає часу і глибокого розуміння комп'ютерних інструментів.

Технологія створення реалістичних зображень і відео інших людей, безумовно, несе в собі небезпечний і зловмисний потенціал. Більшість прикладів глибоких підробок походять від підробок для дорослих. Згідно зі звітом Deeptrace, у 2019 році 96% підроблених відео, знайдених в Інтернеті, були пов'язані з порнографією. Одне підроблене відео може стати серйозною загрозою для акторок, знаменитостей і навіть звичайних людей, зашкодивши їхній репутації та завдавши шкоди. Окрім синтетичної порнографії, існує також кілька інших застосувань фальшивих відео, які застосовуються в реальному житті прямо у нас на очах.

  • Політичні наслідки. Глибоко підроблені відео були сумнозвісними в політиці. Це відео, спеціально створені для введення в оману і маніпулювання глядачами та громадськістю. Ви могли бачити відео, де Дональд Трамп закликає Бельгію вийти з Паризької кліматичної угоди, або де Барак Обама висміює політика з протилежної політичної партії. Політичні наслідки, пов'язані з глибоко підробленими відео, можуть призвести до міжнародної напруженості та непотрібних проблем.
  • Соціальні наслідки. Як уже згадувалося вище, більшість реальних застосувань припадає на діпфейки, що стосуються дорослих. Якщо їх застосовувати до людей, які не є знаменитостями, то вони можуть завдати серйозної психічної, емоційної та фізичної шкоди людям, які стали жертвами технології діпфейків. Вони можуть призвести до експлуатації, залякування та особистого саботажу людей. Це серйозний неетичний дисбаланс у суспільстві, який відкрив дискусію про правові та регуляторні заходи для протидії технологіям глибокого підроблення.
  • Економічні наслідки. У технології діпфейків можливо все. Наприклад, якби поширилося вірусне відео, де Ілон Маск вживає наркотики, ціни на акції Tesla та інших його компаній, найімовірніше, впали б. Підроблені діпфейк-відео здатні контролювати споживацтво і капіталізм. Сфабриковане відео може потенційно змінити ціни на акції, викликати міжнародну напруженість і вплинути на виборців.

Чи використовуються вони лише у відео та фото?

Технологія діпфейків використовується не лише у відео та зображеннях. Список додатків, в яких ця технологія може бути реалізована, швидко розширюється. Наприклад, цифрове аудіо тепер можна створити всього за кілька годин, щоб імітувати голос людини, яка розмовляє. Це може бути використано для шахрайства або афер.

Як розпізнати діпфейк?

Ми розглянули, як зробити діпфейк-відео. Але як їх виявляють? Раніше було легко розпізнати підроблене відео за ненормальним морганням, уривчастим голосом або якістю відео. Іноді кути обличчя могли виглядати неприродними, а краї — м'якими, оскільки не вистачало відеоматеріалу для створення якісної копії людини.

Існують також інші ознаки, за якими можна розпізнати підроблене відео. Освітлення може бути неприродним і непослідовним, а деталі дрібних об'єктів і ракурси, як-от ювелірні прикраси, можуть бути нереалістичними. Це деякі з основних ознак, за якими можна розпізнати фальшиве відео.

Яким є майбутнє діпфейків?

З плином часу і вдосконаленням технологій підробки ставатимуть все більш реальними. Низка компаній і навіть країн почали вживати правових і регуляторних заходів для боротьби з технологією діпфейків. Facebook навіть провів семінар, щоб заохотити нові стартапи виявляти підробки та маніпуляції з цифровим контентом. Існує кілька ініціатив, спрямованих на боротьбу зі шкідливим контентом і фейковими новинами, а також з'являються платформи для виявлення діпфейків. Штучний інтелект може бути причиною того, що діпфейки стали можливими, але він також є рішенням для боротьби з фейковим контентом. Системи блокчейн-реєстрів можуть також зберігати відео та зображення, захищені від підробки, і відстежувати їхнє походження, щоб можна було перевірити достовірність їхніх записів.

Хоча більшість технологій діпфейків мають підступні наміри, не всі вони є такими. Деякі технології діпфейків дозволяють відтворювати відео, зображення та аудіозаписи померлих, що дає змогу їхнім близьким відтворювати спогади разом із ними. Інші види розваг використовують підроблений ШІ для копіювання відомих артистів у соціальних кампаніях або для покращення дубляжу іноземних фільмів. Річ у тому, що технологію діпфейків і штучний інтелект можна використовувати з користю, головне — правильно навчатися та інформувати себе.

Рекомендовані продукти

Анатолій — український автор з міста Києва. IT журналіст, перекладач, кореспондент, фотограф та ПК ентузіаст з 20-річним досвідом.

Позначено тегом:

Офіційні соціальні мережі