Загроза діпфейків для систем захисту за допомогою розпізнавання облич
Пам'ятаєте, який ажіотаж викликала технологія розпізнавання обличчя, коли її вперше представили? Кожен, хто мав смартфон, міг розблокувати свій телефон лише поглянувши на екран. Процес налаштування розпізнавання обличчя також був новим, футуристичним натяком на те, наскільки сильно ми інтегруємо технології в наше життя. Однак, зважаючи на те, що діпфейки стають все більш поширеними, замінити зображення або відео людини на інше, загрожуючи нашій безпеці та приватності, стало простіше, ніж будь-коли раніше.
Що являє собою розпізнавання облич?
Розпізнавання облич - це система, в якій технологія здатна ідентифікувати людське обличчя на зображенні або відео і зіставляти його з особистістю людини. Вона визначає унікальні риси обличчя і зіставляє їх з інформацією, що зберігається в базі даних.
Хоча існує кілька застосувань технології розпізнавання облич, найпоширенішим з них є Face ID, система автентифікації Apple, яка розблоковує iPhone або iPad. Технологія аналізує риси обличчя й автоматично підтверджує вашу особу, дозволяючи авторизувати покупки та отримувати особисту інформацію. Інші практичні застосування розпізнавання облич включають виявлення шахрайства, кібербезпеку, контроль в аеропортах і на кордонах, банківську справу та охорону здоров'я.
Як працює розпізнавання облич?
Розпізнавання обличчя використовує технологію для отримання біометричного шаблону обличчя людини, яку потрібно ідентифікувати. За допомогою штучного інтелекту та машинного навчання програмне забезпечення для розпізнавання облич використовує аналіз зображень для аналізу вхідного зображення і зіставляє його з особою, дані якої потрібні. Технологія являє собою алгоритм, створений спеціально для порівняння та співставлення двох зображень. Наприклад, алгоритм може використовувати ці відмінні риси на людському обличчі для ідентифікації людини:
- Відстань між очима
- Форма підборіддя
- Структура брів і вилиць
- Ширина носа
Що таке діпфейки?
Діпфейки - це відео або зображення, створені ШІ, які беруть за основу реальну людину і замінюють її чиєюсь фізичною подобою. Технологія використовує глибинне навчання для створення фейкових зображень або відеозаписів подій, які ніколи не відбувалися. Глибоке навчання - це підмножина машинного навчання, де штучна нейронна мережа має додаткові шари, які дозволяють їй виявляти структури в отриманих даних. Вони дещо відрізняються від машинного навчання. Це обидва типи штучного інтелекту, але якщо коротко, то машинне навчання - це ШІ, який може автоматично адаптуватися з мінімальним людським інтерфейсом, тоді як глибинне навчання - це ШІ, який використовує штучні нейронні мережі для імітації процесу навчання людського мозку.
Deepfakes може створювати реалістичні кадри, зображення або аудіофайли, які є повністю підробленими, звідси й назва. Його придумав редактор Reddit під ніком «deepfakes» у 2017 році, коли на Reddit з'явилася серія контенту для дорослих, де у відеокліпах обличчя виконавиць були замінені на обличчя жінок-знаменитостей. Діпфейки також можуть загрожувати національній безпеці та міжнародним альянсам, а також шкодити репутації конкретних осіб чи організацій.
Поточний стан безпеки щодо розпізнавання облич
Технологія розпізнавання облич не є новою, і вона широко використовується в маркетингу, як, наприклад, у Sephora з її додатком Virtual Artist, який дозволяє клієнтам приміряти певні кольори та продукти на себе, не купуючи їх у магазині. Однак, як і будь-яка нова технологія, безпека розпізнавання облич все ще створює певні проблеми з приватністю та безпекою:
- Відсутність згоди
- Незашифровані зображення
- Неточність
- Відсутність прозорості
Як deepfake загрожують технології розпізнавання облич?
Оскільки технологія deepfake дозволяє практично будь-кому створювати зображення і відео іншої людини, атаки на кібербезпеку і конфіденційність викликають все більше занепокоєння. Верифікація справжності обличчя, функція технології розпізнавання облич, яка використовує комп'ютерний зір для підтвердження присутності живого користувача, не завжди може виявити змінені цифровими методами фотографії. Нове дослідження, проведене Коледжем інформаційних наук і технологій штату Пенсильванія, показало, що технологія розпізнавання облич є дуже вразливою до кібератак, пов'язаних з підробкою фотографій (deepfakes). Технологія дипфейків вже достатньо розвинена, щоб обдурити комерційні системи розпізнавання облич. В іншій статті, опублікованій на сервері препринтів Arxiv.org, дослідники з Університету SungKyunKwan, Південна Корея, виявили, що API (Application Programming Interface) таких технологічних компаній, як Amazon і Microsoft, можна обдурити за допомогою підроблених зображень і відео.
Нові методи виявлення та протидії діпфейкам
Усвідомлюючи високі ставки та загрози безпеці, технологічні компанії виступили з ініціативами та проєктами, спрямованими на боротьбу з розповсюдженням діпфейків. Facebook разом з Microsoft, Amazon та науковцями з кількох університетів запустили конкурс Deepfake Detection Challenge. Мета - заохотити нові розробки для виявлення та запобігання маніпуляціям у медіа, що використовують штучний інтелект. Боротьба з фейками залучила не лише технологічні компанії та науковців, а й Керівний комітет з питань ШІ та доброчесності ЗМІ Партнерства з ШІ, а також правозахисна некомерційна організація Witness. Нещодавно Microsoft також запустила власне рішення для боротьби з фейками під назвою Video Authenticator. Це інструмент, який може аналізувати фото або відео і виставляти оцінку за рівнем впевненості в тому, що медіа не піддавалися штучним маніпуляціям.
Майбутнє технологій розпізнавання облич
У той час як нові інструменти та методи створення глибоких підробок будуть продовжувати рости і розвиватися, з'являться також нові технології, розроблені спеціально для боротьби з діпфейками. Точніше кажучи, повинні існувати альтернативні стратегії для розвитку технології. Том Берт, віцепрезидент Microsoft з питань безпеки та довіри клієнтів, зазначив у своєму блозі в 2020 році:
«Ми очікуємо, що методи генерації синтетичних медіа будуть продовжувати вдосконалюватися. Оскільки всі методи виявлення ШІ мають певний відсоток збоїв, ми повинні розуміти й бути готовими реагувати на діпфейки, які прослизають крізь методи виявлення. Таким чином, у довгостроковій перспективі ми повинні шукати більш надійні методи підтримки та підтвердження автентичності новинних статей та інших медіа».
Попереду ще багато викликів у галузі технологій розпізнавання облич, і використання та розвиток їх в майбутньому лише зростатиме. Діпфейки є постійною проблемою, але все ще існує кілька позитивних застосувань цієї технології. Як згадувалося вище, технологія розпізнавання облич також може бути використана для розумної роздрібної торгівлі та персоналізованого обслуговування клієнтів, що дозволить покупцям взаємодіяти з продуктами чи брендом, навіть не заходячи в магазин. З правильним підходом та намірами, розпізнавання облич може зробити наше життя набагато простішим і зручнішим, наприклад, виконання простих повсякденних завдань, таких як розблокування мобільного телефону.
Рекомендовані продукти
Aspire C27 | TravelMate P4 13 |
---|---|
Олексій - комп'ютерний ентузіаст та завзятий геймер, що розпочинав знайомство з ПК у часи Intel 80286. Палкий прихильник ігрових ноутбуків Acer Nitro та трансформерів 2-в-1 серії Spin. У минулому - тестовий інженер та керівник тестлабу видання CHIP Україна, IT-журналіст з 20-річним досвідом, редактор низки провідних українських комп'ютерних видань. Цифровий кочівник, соло-мандрівник, чий наплічник з ноутбуком побував у 36 країнах.