Підробні відео: що таке діпфейк і як його розпізнати?

Вас можуть розважати фейкові відео з TikTok, де Том Круз виконує якесь промислове прибирання, або турбувати наслідки повністю цифрового існування корейського диктора новин Кім Джу-Ха. І те, і інше походить від нової форми технології, яку називають «глибокими підробками» або «діпфейками». Слово, утворене шляхом змішування звуків і поєднання значень «глибоке навчання» та «фейк», ця технологія має потенціал повністю перевернути медіа, політику та комунікації та дозволити кіберзлочинцям вийти на абсолютно новий рівень цифрового обману. Дізнатися більше про глибокі фейки та про те, як їх розпізнавати, буде дуже важливо в міру розвитку технологій, щоб гарантувати, що ви зможете відрізнити правду від брехні.

Що таке діпфейки?

Хоча словосполучення «діпфейк» оманливо просте, воно описує складний процес, коли ШІ (штучний інтелект) використовує глибоке навчання для створення фейкових зображень і навіть відеозаписів подій, які ніколи не відбувалися. Глибоке навчання — це метод машинного навчання, в якому штучний інтелект імітує процес набуття знань людиною, що дозволяє ШІ вдосконалюватися з часом і повторенням.

Залежно від навичок і ресурсів, які стоять за конкретним фейком, можна вставити своє або чуже обличчя на іншу фотографію, вставити померлого актора чи актрису у фільми після їхньої смерті або створити відео, на яких відомі політики говорять те, чого вони ніколи не говорили. За допомогою діпфейків можна навіть було створювати складні аудіоклони, які були використані для скоєння кількох гучних кіберзлочинів за останні роки.

Як з'явилися діпфейки?

Хоча технологи та дослідники постійно оскаржують обмеженість нашої здатності маніпулювати зображеннями та відео, термін «глибокий фейк» з'явився у 2017 році. Користувач Reddit з таким же ім'ям опублікував кілька порнографічних кліпів, які були підроблені, замінивши обличчя порноактрис на обличчя жінок-знаменитостей. Технологія, яка замінює покадрове накладання одного зображення на інше для тисяч знімків облич обох людей, здійснюється за допомогою пари алгоритмів штучного інтелекту, відомих як кодер і декодер.

Після виявлення схожості між двома обличчями кодер одночасно стискає обидва зображення, зводячи їх до спільних рис. Потім декодер вчиться витягувати дані про обличчя зі стиснених зображень, але оскільки кожне обличчя відрізняється від інших, для завершення процесу потрібні два декодери. Заміна облич досягається шляхом введення закодованих зображень у протилежний декодер і відтворення першого обличчя на іншому тілі кадр за кадром для створення реалістичних кадрів.

Успішне створення реалістичної глибокої підробки вимагає не лише значних інвестицій у технології. Це також вимагає знань і таланту для маніпулювання візуальними ефектами, щоб створити відшліфований кінцевий продукт. Однак нещодавня поява кількох програм, спеціально розроблених для створення підробок, значно спростила цей процес. Існують навіть додатки та приватні компанії, які більш ніж готові виконати всю важку роботу зі створення підробок для клієнтів, які готові за це платити.

Де найчастіше використовуються діпфейки?

Діпфейки можуть з'являтися в різних місцях і контекстах, включаючи як жартівливі, так і зловмисні підробки, і ними користується напрочуд широке коло осіб. До них належать усі — від любителів відеомонтажу до урядових установ, професіоналів у сфері візуальних ефектів, політичних діячів, порностудій тощо. Приклади можуть варіюватися від розміщення знаменитостей, таких як Том Круз, у безлічі малоймовірних місць і видів діяльності до створення відео, призначених для розпалювання політичної напруженості та шантажу людей за допомогою підроблених кадрів із ситуаціями, що їх компрометують.

Хоча деякі «глибокі фейки» однозначно призначені для того, щоб спричинити хаос у житті конкретних людей, урядів і країн, є багато прикладів «глибоких фейків», створених з єдиною метою — розважитися та повеселитися. Незалежно від намірів, які стоять за створенням глибокого фейку, немає жодних сумнівів, що фейкове відео, показане не тій людині й не в той час, може спричинити серйозні наслідки. Навряд чи потрібно напружувати уяву, щоб повірити в те, що достатньо правдивий діпфейк може завдати непоправної шкоди політичній, економічній і навіть релігійній діяльності. Глибокі фейки також спричинили прикрий побічний ефект, який полягає в тому, що глядачі можуть відкидати кадри реальних подій, вважаючи їх підробленими, що дозволяє звірствам продовжуватися безконтрольно, адже в них не можуть повірити.

Як розпізнати підробку, якщо ви її зустріли?

Оскільки складність технологій і методів, що використовуються в процесі створення «глибоких фейків», продовжує вдосконалюватися, стає дедалі важче відрізнити їх від справжніх відеоматеріалів. У 2018 році американські дослідники виявили, що особи, які були підроблені, зазвичай не кліпають очима, що, мабуть, не дивно, враховуючи, що більшість зображень людей зроблені з розплющеними очима. Однак це відкриття було швидко перекреслене виявленням підробок із кліпанням, тому слід зазначити, що будь-яка вразливість, виявлена дослідниками, незабаром виправляється тими, хто зацікавлений у тому, щоб підробки було важко ідентифікувати.

Існує кілька способів визначити, чи було зображення або відео підробленим, хоча вони, як правило, пов'язані із загальною якістю підробки, про яку йдеться. Хоча найскладніші діпфейки важко виявити навіть експертам, деякі ознаки включають дрібні деталі, такі як погано промальовані окремі пасма волосся. Інші приклади включають помітне мерехтіння по краях обличчя, яке було переміщено, неприродно строкаті тони шкіри, невідповідність синхронізації губ, незвичні відблиски або дивні джерела світла на райдужній оболонці ока, а також погано відтворені зуби або прикраси.

Оскільки технології, за допомогою яких створюються «глибокі фейки», стають дедалі складнішими та детальнішими, вкрай важливо бути в курсі технологічних розробок. Попри те, що існує кілька державних, приватних і спонсорованих урядом ініціатив, спрямованих на виявлення «глибоких фейків», вам доведеться діяти на власний розсуд і залишатися обережними.

Анатолій — український автор з міста Києва. IT журналіст, перекладач, кореспондент, фотограф та ПК ентузіаст з 20-річним досвідом.

Позначено тегом:

Офіційні соціальні мережі