Современные угрозы шантажа и манипуляций
Давайте посмотрим небольшой видеофрагмент из фильма “Терминатор”. На нем главный герой учится улыбаться, анализируя окружающий его мир.
Сталлоне действительно неплохо справился со своей ролью и улыбнулся так, как будто делает это впервые в жизни. Можно с уверенностью сказать – верю! Правда, Сильвестр ни разу не появлялся на съемочной площадке Терминатора, и в ролях фильма его имя найти невозможно. Как же тогда Сталлоне подменил “железного Арни”? Видео выше является продуктом новой популярной технологии Deepfake.
Что такое Deepfake, и как это работает
Истоки технологии Deepfake находятся в кинематографии, где используют компьютерную графику для изображения исторических личностей или воссоздания образа умерших актеров, которые не успели досняться в фильме. Ранее для этого использовались целые студии, у которых уходили годы кропотливой работы над подобными эффектами. Сейчас же “сыграть роль” в Терминаторе или в любом другом фильме может практически каждый, нужно лишь иметь производительный ПК у себя дома.
Технология Deepfake использует машинное обучение в своей основе. Искусственный интеллект анализирует фотографии личности, которую вы хотите поместить на отрывок видео, и изучает ее эмоции, черты лица и так далее. Далее система “склеивает” полученные данные с видео, создавая за считанные часы продукт с уровнем качества не хуже “киношного”.
Опасен ли Deepfake
Казалось бы, как такая безобидная технология может принести кому-то вред? На деле же, злоумышленники используют для самых разнообразных целей. Зачастую они создают компрометирующий материал с целью шантажа кого-либо, для получения финансовой или любой другой выгоды.
Также технология Deepfake может быть использована и для более масштабных целей: выставление участников предвыборной гонки в плохом свете, создание фейковых заявлений политический деятелей и так далее.
Как защититься от Deepfake
Множество стран по всему миру ввели уголовную ответственность за создание и распространения материалов Deepfake, которые могут навредить чьей-либо репутации.
Так, в штате Пенсильвания, США, осудили 50-летнюю женщину за создание фейкового видео на котором соучастницы чирлидинговой команды её дочери употребляли алкоголь и наркотические средства. Женщина в течение продолжительного времени шантажировала подростков.
В свою очередь, популярная социальная сеть Facebook начала сотрудничество с исследователями из Беркли и Оксфорда, с целью автоматизации обнаружения материалов Deepfake и дальнейшей их блокировки.
Перефразируя известную поговорку, необходимо помнить – “на закон надейся, но сам не плошай”. Чтобы не стать жертвой психологических манипуляций, рекомендуем воспользоваться нашим авторским курсом по психологической безопасности. Основная цель курса – не просто охватить типовые случаи социальной инженерии, а показать корневые причины, из-за которых становятся возможными психологические манипуляции, и научить устранять эти причины.
Если вам необходимо системно защитить репутацию известного человека или снизить риски Deepfake для организации или компании, обратите внимание на наши сервисы разведки угроз и реагирования на них. Будем рады помочь вам профессионально оградить себя от изощренного мусора дипфейков, который может серьёзно испортить репутацию и ударить по кошельку.