Глубоко фальшиво. Что такое дипфейки и реально ли их распознать
Запрещено шариатом, не одобряется полицией© «Теперь вы знаете» / создано при помощи нейросети
Что означает deepfake
Дипфейки (от англ. deep learning — «глубинное обучение» и fake — «подделка») — это реалистичные фото-, видео- и аудиоматериалы, которые создали или отредактировали с помощью компьютерных алгоритмов и нейросетей. Так называют и технологию, и конечный продукт.
Таким образом можно подменить часть видео, «оживить» фотографию, сгенерировать чужой голос, «наклеить» на актера чужое лицо. В итоге появляется контент, внешне (почти) неотличимый от настоящего.
Битва нейросетей
Для создания дипфейков применяют генеративно-состязательные нейросети (GAN). Это алгоритмы на базе машинного обучения, которые создают новый контент на основе заданного набора образцов.
Таким способом можно изучить множество фотографий и видео какого-нибудь актера, а потом создать новое фото или видео с его чертами и мимикой. Или наложить его лицо на видео с другим актером.
Шарлиз Терон или Мистер Бин?
© «Теперь вы знаете» / создано при помощи нейросети
Особенность технологии заключается в том, что в работе над созданием дипфейка задействованы сразу два алгоритма с противоположными задачами. Пока один алгоритм создает, например, видео, второй выполняет роль полицейского и пытается определить, похоже ли оно на настоящее. Если второй алгоритм обнаружит фальшивку или нестыковку, первый начинает все заново, учтя причины отбраковки. Таким образом пара нейросетей действует снова и снова, пока не выдаст результат, который сочтет удовлетворительным. За счет этой самой состязательности такие нейросети постоянно прогрессируют и растут над собой, создавая все более реалистичные подделки.
Виды дипфейков
Существует несколько видов дипфейков:
- Подмена лица (face swap) — когда лицо одного человека «накладывается» на лицо другого в видео или фото.
- Поддельная речь (synthetic speech) — когда создается речь из заданного текста на основе голоса реального человека (так называемый voice cloning, «клонирование голоса»).
- Полностью сгенерированное видео — с подменным лицом, синтезированной* речью и иногда вовсе нарисованное нейросетью с нуля.
*Синтез речи — это искусственное производство человеческой речи из заданного текста.
Как и когда появились дипфейки
Само по себе редактирование фото и видео — явление не новое. Вмешиваться в исходные кадры начали едва ли не сразу после возникновения этих технологий.
Умельцы прошлого раскрашивали черно-белые кадры, вставляли туда новые элементы, склеивали разные пленки — все это легло в основу искусства монтажа, на котором строится весь кинематограф XX (да и XXI) века.
В 1990-х годах, когда цифровизация сильно шагнула вперед, начали предпринимать и первые попытки использовать цифровые технологии для создания видео. Например, в 1997 году появилась технология, которая позволила подогнать артикуляцию лица под синтезированную аудиодорожку.
Но как таковая технология deepfake появилась в 2014 году. Ее разработал студент Стэнфордского университета Иэн Гудфэллоу.
Технология обрела широкую и, увы, печальную известность в 2017 году. Тогда анонимный пользователь популярного на Западе форума Reddit с ником deepfake начал с ее помощью заменять лица порноактрис лицами знаменитостей.
Таким образом появились видео 18+ с участием Эммы Уотсон, Скарлетт Йоханссон, Тейлор Свифт и многих других актрис и певиц.
Вскоре технология усовершенствовалась, и порноролики со «звездами кино» заполнили интернет.
С каждым годом технологии производства дипфейков дешевеют и упрощаются, так что для того, чтобы создать новый фейковый ролик, достаточно минимального опыта работы с нейросетями.
Благодаря этому дипфейки из Сети перекочевали и на телевидение, и на большой экран. Например, в 2020 году британский телеканал Channel 4 выпустил рождественское поздравление от лица королевы Елизаветы II.
В видео «королева» рассказала о своей семье, вызовах, стоящих перед британским народом, подвиге медиков-героев, неожиданно тонко шутила. А потом начала танцевать, как в роликах из TikTok.
Под конец она заговорила о вопросе доверия и напомнила, что не стоит верить всему, что видите на своем экране.
Скриншоты уже легендарного дипфейка с Елизаветой
Несмотря на то что руководство канала предупредило, что это дипфейк и ролик носит «просветительскую» миссию, скандал все равно разразился. Британцам не понравилось такое фривольное обращение с их королевой.
Сейчас дипфейки запрещены на многих сайтах, в том числе Reddit, Pornhub и Х (бывший Twitter). Но это не мешает им периодически появляться.
Чем могут быть опасны дипфейки
Как и любая технология, deepfake сама по себе не хороша и не плоха. Она как нож: ее опасность зависит от того, кто и с какой целью ее применяет.
Например, ее могут использовать для мошенничества. Нейросети используют для подделки голосов и даже видеозвонков, чтобы убедить жертву, что ей звонит знакомый или известный человек. Таким образом жулики выманивают у людей деньги. Или, сымитировав кого-то из начальства, заставляют сотрудников компании предоставлять пароли и доступы в корпоративную сеть хакерам.
Злонамеренное использование этой технологии уже привело к тому, что в отдельных странах, как в Казахстане, духовные управления мусульман начали запрещать дипфейки из-за несоответствия нормам шариата. Муфтияты подчеркивают, что ислам не против новых технологий, но именно эта чаще применяется во вред, для обмана людей и ущерба репутации объектов дипфейков. При этом даже шутливые подделки считаются недопустимыми.
С помощью дипфейков пытаются также манипулировать общественным мнением.
Например, «заставить» какого-то политика произнести провокационную речь, показать его смешным, недееспособным, пьяным. Или распространить очевидный фейк, трудноотличимый от реального.
И в этом кроется еще одна опасность: по мере совершенствования дипфейков падает доверие к настоящим фото, видео и аудиодоказательствам. Это на руку тем, кто пытается создать видимость мира, в котором любые неудобные факты можно объявить фейками или «недостоверной информацией».
Наконец, технологию deepfake используют для изготовления порно (как мы рассказывали выше). Что само по себе преступление во многих странах мира. Но в некоторых случаях с помощью дипфейков компрометируют добропорядочных граждан, чьи лица становятся лицами порноактеров. Такие видео даже могут стать предметом для шантажа.
Не стоит думать о дипфейках только как об орудии для мошенников и фейкоделов. Дипфейки также активно применяются:
- В образовании и науке. С помощью дипфейков создают виртуальных инструкторов и лекторов, правдоподобные симуляции пространств и персонажей. Например, дипфейковые Пушкин, Гоголь, Достоевский, Булгаков могут рассказывать школьникам о русской литературе, так сказать, «из первых рук».
- В искусстве, рекламе, развлечениях. Например, в 2019 году американский музей Сальвадора Дали в честь 115-летия со дня рождения великого художника «воскресил» его в виде дипфейка. А звезда боевиков Брюс Уиллис, уже несколько лет страдающий деменцией, стал лицом рекламы «Мегафона», даже не посещая Россию: его лицо прилепили к русскому актеру с помощью нейросетей.
- В киноиндустрии. С помощью этой технологии уже давно «омолаживают» и «состаривают» актеров. Кроме того, с помощью дипфейков продолжать свою кинокарьеру могут даже отошедшие от дел и умершие знаменитости — разумеется, с их согласия или согласия наследников. Так, например, в новых «Звездных войнах» появилась недавно почившая Кэрри Фишер в своей бессменной роли принцессы Леи Органы.
В перспективе использование нейросетей в кинопроизводстве может сделать фильмы еще более интересными. Например, это позволит синтезировать переведенную речь голосом оригинального актера, а не накладывать дубляж. При этом артикуляция будет подстраиваться под новый текст.
Как распознать дипфейк
Отличить дипфейк от настоящего видео становится все сложнее, но пока еще реально. Подделку отличают следующие признаки:
- размытость очертаний, слишком плавные или недостаточно плавные движения;
- задержки и зависания изображения;
- несоответствие интонации и выражаемых эмоций, произносимого текста и артикуляции;
- редкое моргание;
- для фото — отсутствие метаданных, которые обычно есть у реальных фотографий;
- всевозможные компьютерные «артефакты» (лишние пальцы, уши, носы, искаженность черт, внезапно появляющиеся на секунду в кадре лишние линии и пятна).
Правда, с нынешним уровнем развития нейросетей даже эти признаки стремительно устаревают.
Например, весной 2025 года шуму наделала нейросеть VEO3 от Google, которая за счёт технологии DeepMind умеет создавать качественные и весьма реалистичные видеоролики по текстовому описанию, да ещё и синхронизировать движение губ и звуковую подложку с написанным в промпте текстом. И это, по сути, только начало пути
Теперь видео-креатив можно создать за 3-5 минут. И дипфейк тоже.
Так что единственная возможная прививка от того, чтобы верить каждому дипфейку, — осведомленность и здравый смысл.
Чтобы не попасться на удочку фейкоделов:
- имейте в виду, что нейросети теперь умеют и не такое, и не торопитесь верить всему, что есть в интернете;
- расскажите близким о дипфейках и о том, как их различать;
- при малейшем сомнении задайте себе резонный вопрос, насколько происходящее на экране выглядит правдоподобно или безумно;
- пользуйтесь только проверенными источниками информации, повышайте информационную грамотность;
- критически относитесь к внезапным просьбам о денежной помощи и следуйте принципу «доверяй, но проверяй»: задавайте контрольные вопросы, звоните напрямую по известному вам телефону, просите подтвердить личность как-либо еще, но не видео и не голосовыми.
Здравый смысл — это база в новом технологическом мире. Уже сейчас те же компьютерные артефакты заметить зачастую могут только такие же нейросети, а очевидных для человеческого глаза ляпов остается все меньше.