Діпфейк – розвага чи зброя?

13.04.2021 Автор: Михайло Степанов

Сучасні загрози шантажу та маніпуляцій

Пропонуємо переглянути невеликий відеофрагмент із фільму “Термінатор”. На ньому головний герой вчиться посміхатися, аналізуючи навколишній світ.

Сталлоне дійсно непогано впорався зі своєю роллю та посміхнувся так, як ніби робить це вперше в житті. Можна з упевненістю сказати – вірю! Правда, Сильвестр жодного разу не з’являвся на знімальному майданчику Термінатора, і в ролях фільму його ім’я знайти неможливо. Як же тоді Сталлоне підмінив “залізного Арні”? Відео вище є продуктом нової популярної технології Deepfake.

Що таке Deepfake, і як це працює

Витоки технології Deepfake знаходяться у кінематографії, де використовують комп’ютерну графіку для зображення історичних особистостей або відтворення образу померлих акторів, які не встигли дознятися у фільмі. Раніше для цього використовувалися цілі студії, у яких ішли роки кропіткої роботи над подібними ефектами. Зараз же “зіграти роль” у Термінаторі або у будь-якому іншому фільмі може практично кожен, потрібно лише мати продуктивний ПК у себе вдома.

Технологія Deepfake використовує машинне навчання у своїй основі. Штучний інтелект аналізує фотографії особистості, яку ви хочете помістити на уривок відео, та вивчає її емоції, риси обличчя тощо. Далі система “склеює” отримані дані з відео, створюючи за лічені години продукт із рівнем якості не гірше “кіношного”.

Чи небезпечний Deepfake

Здавалося б, як така безневинна технологія може принести комусь шкоду? На ділі ж, зловмисники використовують її для найрізноманітніших цілей. Найчастіше вони створюють компрометуючий матеріал із метою шантажу кого-небудь, для отримання фінансової або будь-яких інших вигід.

Також технологія Deepfake може бути використана і для більш масштабних цілей: виставлення учасників передвиборної гонки у поганому світлі, створення фейкових заяв політичних діячів тощо.

Як захиститися від Deepfake

Безліч країн по всьому світу ввели кримінальну відповідальність за створення та поширення матеріалів Deepfake, які можуть нашкодити чиїйсь репутації.

Так, у штаті Пенсільванія, США, засудили 50-річну жінку за створення фейкового відео, на якому співучасниці чірлідінгової команди її дочньки вживали алкоголь та наркотичні речовини. Жінка протягом тривалого часу шантажувала підлітків.

У свою чергу, популярна соціальна мережа Facebook почала співпрацю з дослідниками з Берклі та Оксфорда, з метою автоматизації виявлення матеріалів Deepfake та їхнього подальшого блокування.

Перефразовуючи відому приказку, необхідно пам’ятати – “на закон сподівайся, але сам не зівай”. Щоб не стати жертвою психологічних маніпуляцій, рекомендуємо скористатися нашим авторським курсом із психологічної безпеки. Основна мета курсу – не просто охопити типові випадки соціальної інженерії, а показати кореневі причини, через які стають можливими психологічні маніпуляції, та навчити усувати ці причини.

Якщо вам необхідно системно захистити репутацію відомої людини або знизити ризики Deepfake для організації або компанії, зверніть увагу на наші сервіси розвідки загроз та реагування на них. Будемо раді допомогти вам професійно захистити себе від витонченого сміття діпфейків, яке може серйозно зіпсувати репутацію та вдарити по гаманцю.

Інші записи

30/11/2024
Безпека штучного інтелекту
10/11/2024
Як захистити і навчити захищати входи в системи