Дипфейк: что это такое, технология, где используются, чем опасны deepfakes и как их распознать

Что такое дипфейки и в чем их опасность?

Дипфейк — это технология, которая с помощью искусственного интеллекта заменяет лицо или голос человека на другого в видео, фото или аудио. Изначально дипфейки использовались в развлекательных целях, но сейчас они представляют серьезную угрозу для бизнеса и частной жизни. Согласно исследованию британской IT-компании Sumsub, за 2023 год количество преступлений с дипфейками увеличилось в 10 раз. Больше всего пострадали финтех-компании и онлайн-медиа. С помощью дипфейков мошенники манипулируют персональными данными и распространяют дезинформацию. В этой статье мы разберем, что такое дипфейки, какие риски они несут для компаний и как защититься от угрозы.

Что такое дипфейк

Дипфейк — это поддельные фото, видео или аудио, созданные с помощью искусственного интеллекта и технологий машинного обучения. Они используются для развлечений, спецэффектов в кино, киберпреступлений и мошенничества.

Чтобы создать дипфейк, нейросеть работает с реальными данными и сохраняет естественность человеческих поз и мимики. А чтобы сгенерировать картинку с нуля, искусственный интеллект не использует никаких исходных кадров и ориентируется только на запрос пользователя.

Разберем разницу на примере. Один из самых популярных героев дипфейков — Киану Ривз. В видеороликах и на фото актер гуляет по Санкт-Петербургу, забывает выключить утюг дома или поздравляет с Новым годом по-русски. С дипфейками Киану Ривза и Джейсона Стэйтхема российские режиссеры сняли веб-сериал.

Дипфейк Киану Ривза в сериале «ПМЖейсон»
Поддельный Киану Ривз участвует в застолье вместе с реальными актерами — дипфейк сохранил мимику

Теперь попросим нейросеть нарисовать похожую картинку. Дадим запрос: «Мужчина с длинными черными волосами сидит за праздничным столом в белой футболке с олимпийским Мишкой, стиль — детальное фото». Сразу видим существенные недостатки: вместо олимпийского Мишки появился набор колец, одна рука темнее другой. Очевидно, что такая картинка не дипфейк, ею никого не обманешь.

Результат генерации нейросети
Нейросеть сама создала фон, обстановку и внешность мужчины.

Где используют дипфейки

1. В развлекательной индустрии

Здесь дипфейки широко применяются для создания мемов и видеороликов. Уже упомянули веб-сериал «ПМЖейсон». Также можно вспомнить рекламу сотового оператора «МегаФон» с Брюсом Уиллисом — компания купила право использовать цифровой аватар голливудской звезды. На площадке работал другой актер, а его лицо позже заменили на Брюса.

Отдельной категорией забавных дипфейков можно считать ролики с Арнольдом Шварценеггером. Его изображение накладывают на самых разных персонажей: от незадачливого вора из «Кавказской пленницы» до хоббита во «Властелине колец».

Скриншот дипфейк-видео, где Арнольд Шварценеггер заменил всех актеров во «Властелине колец»
Пользователь YouTube Jarkan VFX предположил, как будут выглядеть сразу несколько Арнольдов в одном кадре

Случались ситуации в киноиндустрии, когда дипфейк вместо развлечения становился необходимостью. Если актер умер, пока фильм еще снимали, создают цифровой аватар. Один из первых таких случаев — замена Филипа Хоффмана, который сыграл роль распорядителя в саге «Голодные игры». Нейросеть обрабатывала более тысячи фотографий, чтобы создать реалистичную картинку. Аналогичная история произошла на съемках «Форсажа 7»: вместо погибшего Пола Уокера в кадре играл его родной брат, а позже компьютер подставил нужное лицо.

2. В политике и киберпреступности

Здесь дипфейки применяются для манипуляции общественным мнением и психологического давления. Мошенники подделывают голоса, чтобы позвонить чьей-нибудь маме и попросить срочно перевести деньги. А если преступникам удается взломать аккаунт в Telegram, то они ухитряются рассылать знакомым правдоподобные видеосообщения — кружки. 

ВЦИОМ проводил опрос среди россиян на тему цифровой безопасности. 68% респондентов ответили, что опасаются за сохранность своих личных данных в интернете. При этом более 80% уверены, что на рабочих местах информация сохраняется лучше, чем на персональных гаджетах.

В политике кейсы с фейками крутятся вокруг самых влиятельных лиц. Например, в США подделали голос Джо Байдена, чтобы обзвонить избирателей и попросить их не участвовать во внутрипартийных выборах. Режиссер Джордан Пил создал поддельное видео с участием Барака Обамы. Бывший президент США якобы произносил оскорбительные выражения. Джордан Пил хотел продемонстрировать угрозу дипфейков, но пример также показал, что любой человек может стать мишенью. Особенно уязвимыми становятся те пользователи интернета, кто выкладывает множество личных фотографий с подробными подписями.

Как создаются дипфейки

Чтобы создать дипфейк, нужно действовать по простому алгоритму:

  1. Собрать данные: аудио, фото и видео с разных ракурсов, в разных позах, в разной обстановке.
  2. Обучить искусственный интеллект подражанию мимике, жестам, интонациям, тембру.
  3. Подменить лицо или голос.
  4. Скорректировать шероховатости — добавить тени и свет.

В основе технологии дипфейков лежат нейронные сети и архитектуры. Рассмотрим их подробнее.

  • Генеративно-состязательные сети (GAN) — одна из самых мощных технологий для создания реалистичных изображений и видео. GAN состоят из двух нейронных сетей:

генератор создает поддельные изображения;

дискриминатор определяет, фейк или оригинал получился.

Генератор пытается обмануть дискриминатор и воспроизводит все более качественные подделки, а дискриминатор совершенствуется в распознавании. В результате получаются изображения и видео с высокой степенью сходства.

  • Автоэнкодеры — это вид нейронных сетей, используемых для компрессии данных и последующего их восстановления. Они состоят из двух частей:

энкодер сжимает изображение и вычленяет из него важные признаки, например контуры лица;

декодер использует выделенные признаки и восстанавливает сжатое изображение.

Чтобы подделка выглядела естественно, используется пара автоэнкодеров: один из них обучен на изображениях первого человека, а второй — на изображениях второго. Так, при сжатии и восстановлении одного лица через автоэнкодер второго лица получается поддельное изображение с особенностями лица второго человека.

  • Модели на основе RNN и LSTM — технология для аудиофейков: 

рекуррентные нейронные сети (RNN) помогают моделям запоминать последовательность слов, чтобы имитировать речевые паттерны;

долгая краткосрочная память (LSTM) позволяет запоминать долгосрочные зависимости в данных, чтобы ИИ подражал манере речи человека с паузами, интонацией и темпом.

Аудиомодели обучаются на записях голоса, чтобы создать цифровой отпечаток. После ИИ может генерировать новую речь так, будто говорит человек.

  • Сегментация и трекинг помогают нейросети отслеживать каждое изменение в кадре и адаптировать наложенное лицо под конкретные движения и эмоции. Для этого в дипфейках часто применяют алгоритмы:

Face Alignment (выравнивание лица) определяет ключевые точки на лице: глаза, нос, рот;

Facial Motion Capture (захват мимики) ловит движения мышц на лице и синхронизирует их с подменным лицом, чтобы дипфейк казался реалистичным.

  • Готовые приложения — программы для создания дипфейков, которые используют встроенные нейросети и алгоритмы. Обычно это мобильные приложения: 

— DeepFaceLab;

— Faceswap;

— ZAO;

— Avatarify;

— FaceApp.

Искусственный интеллект учится на контенте из открытого доступа. Чем больше снимков, видео, аудио и личных данных утекает в сеть, тем легче мошеннику создать дипфейк.

Чем опасны дипфейки

Дипфейки представляют серьезную угрозу для частных лиц и бизнеса. Рассмотрим на примерах, как они могут навредить. 

Финансовые махинации. В 2019 году мошенники подделали голос руководителя британской энергетической компании, чтобы вывести со счетов 243 000 долларов. Они позвонили сотруднику и запустили запись сгенерированного голоса.

Шантаж. В 2018 году журналистка из Индии Рана Айюб подверглась нападкам из-за фейкового видео. Противники политической позиции Раны сгенерировали порнографический ролик с ее участием. Видео заметили представители государственной власти в Индии.

Обход систем биометрии. В 2021 году в Китае раскрыли преступление: двое мужчин на протяжении пары лет обманывали государственную систему распознавания лиц и торговали поддельными налоговыми накладными. Ущерб от деятельности мошенников составил около 75–76 млн долларов.

Подрыв доверия к реальной информации. Многочисленные фейковые видео могут посеять панику, особенно если в стране происходят кризисные события. Граждане перестанут доверять даже официальным репортажам на федеральных каналах.

Правительства некоторых стран уже ввели санкции за создание и применение дипфейков с целью мошенничества. В Госдуму РФ также внесли законопроект об уголовной ответственности за дипфейки. 

Как распознать дипфейк

Распознавание дипфейков становится все более сложной задачей, потому что искусственный интеллект постоянно обучается. Есть специальные технологии для распознавания фальшивок: 

  • Генеративные состязательные сети (GAN). Генератор создает поддельные изображения или видео, а дискриминатор пытается определить, являются ли они настоящими или фальшивыми. 
  • Автоэнкодеры используются для анализа видео, чтобы совместить выражения лиц и язык тел. 
  • Конволюционные нейронные сети (CNN) выявляют аномалии в движениях или выражениях лиц.

Как проверить видео на подлинность. Внимательные пользователи соцсетей заметили, что в одном из популярных видео с дипфейком мимика человека была замедленной, а движения глаз — неестественными. Для выявления таких деталей можно использовать программы, анализирующие частоты видео и его метаданные.

Как проверить подлинность аудиозаписи. В реальных аудиосообщениях получатели слышат фоновый шум. Говорящий может делать интонационные скачки или запинаться. Фейковая запись часто содержит спокойный фон и плавную речь без переходов. 

Как распознать поддельные изображения. Обратите внимание на детали: неровные края, странные тени, отклонения в симметрии, слишком много пальцев на руке. Также можно использовать поиск в Google Images или TinEye, чтобы проверить, публиковалось ли изображение ранее и в каком контексте.

В Кодебай мы проводим проверку уровня ИБ грамотности сотрудников, а также проводим обучение сотрудников, проверку
и обработку результатов. В Академии Кодебай мы готовим полноценных специалистов в области ИБ для любых предприятий.

Коротко о дипфейках

  • Дипфейк — это поддельные фото, видео или аудио, созданные с помощью искусственного интеллекта и технологий машинного обучения.
  • Дипфейки часто используются в кино, рекламе, а также в кибератаках.
  • Чтобы создать дипфейк, нужно собрать большое количество исходных данных (аудио, фото и видео), а затем обучить искусственный интеллект копировать их.
  • Дипфейки используют в том числе для шантажа: мошенники могут создать провокационный видеоролик, чтобы испортить репутацию.
  • Чтобы распознать дипфейки без специальных программ, нужно обращать внимание на мелкие детали.
Получить оценку
Заполните форму и наши специалисты свяжутся с вами в ближайшее время
Ваше сообщение отправлено!
Наши специалисты свяжутся с вами в ближайшее время