Мир
00:01, 20 декабря 2025

«Эти образы неотличимы от реальности» Дипфейки становятся все более совершенными и опасными. Как они влияют на мировую политику?

Политолог Елена Зиновьева: Дипфейки стали инструментом гибридных стратегий
Елизавета Баранова
подготовил к публикации Дмитрий Попов (корреспондент отдела «Мир»)

Еще несколько лет назад дипфейки воспринимались как технологическая экзотика, но сейчас они превратились в оружие информационных войн. С помощью дипфейковых видео политики дискредитируют оппонентов в избирательных кампаниях, а в ходе военных конфликтов противоборствующие стороны обвиняют друг друга в военных преступлениях и демонстрируют несуществующие победы на поле боя. А с учетом возросшего числа мошенничеств с использованием синтетического видео и голоса, люди начинают воспринимать любое видео как потенциальную подделку. В итоге доверие к политикам и СМИ падает, а выстраивать диалог между государствами становится все сложнее. О том, как дипфейки меняют логику современной политической борьбы, почему они стали инструментом давления и какое место эта угроза занимает в системе международной безопасности, — в разборе «Ленты.ру».

  1. Чем опасны дипфейки?
  2. Как технология дипфейков вышла из-под контроля?
  3. Как дипфейки влияют на мировую политику?
  4. Кто еще становится жертвами дипфейков?
  5. Что происходит с дипфейками сейчас?
  6. Как случаи с дипфейками влияют на эмоциональное состояние людей?
  7. Какие законодательные меры применяют против дипфейков?
  8. Что о будущем дипфейков говорят эксперты?
1. Чем опасны дипфейки?

Технологии генерации изображений и голоса достигли такого уровня, что даже опытные специалисты не всегда способны отличить подделку от реальности.

По данным Всемирного экономического форума, в 2025 году количество дипфейк-атак на бизнес и государственные структуры выросло в десятки раз. За первые месяцы года были зафиксированы сотни случаев подделки видео и аудио, которые затем использовались в мошеннических схемах и кампаниях дезинформации.

Технологии, которые еще недавно были доступны лишь исследовательским лабораториям, сегодня можно использовать прямо в браузере: платформы Synthesia или ElevenLabs генерируют реалистичную речь и видео за считаные минуты, даже без знаний программирования. Дипфейки можно сгенерировать и в других нейросетях — от Higgsfield до Sora 2.

Ситуацию усугубляют особенности социальных сетей: любой ролик может разойтись по всему миру быстрее, чем его успеют проверить.

Исследователи сервиса Reality Defender, специализирующегося на выявлении дипфейков, подчеркивают, что объектами манипуляций все чаще становятся политические кампании, избирательные штабы и СМИ.

на
900 %
увеличилось количество дипфейков в 2024-2025 годах по сравнению с предыдущим избирательным циклом
2. Как технология дипфейков вышла из-под контроля?

История дипфейков началась со скандала. В 2017 году на платформе Reddit появился пользователь под ником Deepfakes, который публиковал видео с заменой лиц актеров в порнофильмах на лица знаменитостей. Уже через несколько месяцев такие материалы были запрещены.

Именно тогда появился термин deepfake — от deep learning («глубокое обучение») и fake («подделка»)

Почти одновременно была выпущена программа FakeApp, позволявшая любому пользователю «вживлять» лицо другого человека в видео. Вскоре исследователи из Университета Вашингтона создали технологию, способную заставить бывшего президента США Барака Обаму произносить любые тексты с синхронизацией движений губ.

Уже в 2018-м издание The Guardian писало о дипфейках как о реальной угрозе.

В 2020 году в Габоне появилось видео, на котором президент Али Бонго выглядел тяжелобольным и говорил с трудом. Запись оказалась подлинной, но сомнения в ее достоверности спровоцировали попытку военного переворота.

В 2023-2025 годах число дипфейков удваивалось каждые шесть месяцев, и более половины из них создавались не для развлечения, а для дезинформации

Технология дипфейков формирует атмосферу недоверия, отметила в беседе с «Лентой.ру» доктор политических наук, профессор кафедры мировых политических процессов МГИМО МИД России Елена Зиновьева. По ее словам, она уже сейчас способна подрывать архитектуру международной стабильности.

3. Как дипфейки влияют на мировую политику?

Сейчас один вирусный ролик способен спровоцировать дипломатический скандал, вызвать панику или повлиять на ход боевых действий.

Во время войны Израиля и ХАМАС в 2023-2025 годах в соцсетях распространялись десятки ложных видео атак, заявлений политиков и журналистов. По данным издания Time, именно дипфейки стали одним из ключевых источников паники и разжигания ненависти.

Вирусный ролик, на котором толпа иранцев якобы скандирует «Мы любим Израиль!», успел вызвать международный резонанс, прежде чем было доказано, что он полностью сгенерирован нейросетью

Похожие случаи фиксировались и в других конфликтах. На Украине весной 2022 года появилось поддельное видео, на котором президент Владимир Зеленский призывал военных сложить оружие.

В 2023-2024 годах в России выявили десятки политических дипфейков, которые распространялись в сети с целью посеять панику

В июне 2023-го появилось фейковое радиообращение Владимира Путина о введении военного положения в приграничных регионах. Позже были зафиксированы видео с участием бывшего губернатора Курской области Алексея Смирнова и губернатора Приморского края Олега Кожемяко, им приписывались заявления, которых они никогда не делали.

Отдельным инструментом давления стали дипфейки с «предсмертными заявлениями» глав регионов. Так, фейковый ролик о «самоубийстве» губернатора Самарской области Вячеслава Федорищева сопровождался подписью «источник подтверждает смерть», после чего чиновнику пришлось публично опровергать собственную «гибель».

В Сирии в 2023-2024 годах распространялись синтетические видео «ракетных ударов» и «химических атак». Одно из них, якобы снятое в Идлибе, набрало сотни тысяч просмотров. Анализ AFP Fact Check показал, что видео было полностью искусственным.

Широкое распространение также получил дипфейк с «заявлением» одного из полевых командиров, в котором он якобы призывал к эскалации конфликта. По данным BBC Verify, видео было создано с использованием модели, обученной на его предыдущих интервью. Эксперты отмечали неестественную артикуляцию, ошибки в синхронизации голоса и несоответствие мимики аудиоряду.

4. Кто еще становится жертвами дипфейков?

Жертвами дипфейков все чаще становятся СМИ. Американское издание CBS News признало, что лишь около десяти процентов новостных видео проходят первичную проверку без подозрений на синтетическую природу. Остальные требуют дополнительной верификации, что замедляет работу редакций и усиливает эффект информационного тумана.

Одновременно дипфейки стали инструментом кибермошенников

По оценкам экспертов, за последний год поддельные голоса руководителей все чаще использовались для требований перевода крупных сумм, а реалистичные видеозвонки вводили сотрудников компаний в заблуждение.

Так, в феврале международная инженерная компания Arup Group стала жертвой масштабной мошеннической схемы. Злоумышленники использовали поддельные видео и аудиозаписи с участием топ-менеджеров, пытаясь убедить сотрудника перевести 25 миллионов долларов. Схема выглядела безупречно: звонок в Zoom, синхронные изображения лиц, уверенные голоса — и ни одного очевидного признака фальсификации.

более
170
случаев
кибермошенничества с использованием дипфейков официально зарегистрировано за первые месяцы 2025 года

При этом только технологический гигант Google сообщил регулятору Австралии, что в период с апреля 2023 по февраль 2024 года получил более 250 жалоб со всего мира на предполагаемый контент, созданный с помощью искусственного интеллекта, включая видео и изображения, изображающие терроризм, экстремизм и насилие.

В июле Международный союз электросвязи (МСЭ) выступил с официальным призывом к компаниям и платформам активнее внедрять инструменты выявления и предотвращения дипфейков. В своем докладе организация заявила, что на фоне роста манипуляций с видео и аудио генеративные дипфейки стали одной из ключевых угроз для информационной безопасности, доверия к медиа и стабильности демократических процессов.

5. Что происходит с дипфейками сейчас?

Количество выявленных дипфейков в мире продолжает расти.

на
120 %
выросло число выявленных дипфейков в 2023-2025 годах, согласно исследованиям Global Fact Network

Только в России за первые девять месяцев 2025 года выявили более 60 поддельных видео — в 2,5 раза больше, чем за аналогичный период годом ранее. Большинство из них касались политически и социально чувствительных тем.

В 2024-2025 годах дипфейки активно использовались в избирательных кампаниях в разных странах. В США, Канаде и Индии фиксировались случаи публикации поддельных роликов с участием кандидатов, а в Европе — «заявлений», которых политики никогда не делали. Такие дипфейки нередко публиковались от имени «независимых изданий», а их вирусное распространение обеспечивали сети ботов в социальных сетях.

Показательный случай произошел в феврале 2024 года в США. Злоумышленники разослали миллионы аудиозаписей с поддельным голосом Джо Байдена, призывающим избирателей не приходить на предварительное голосование. Его голос был настолько реалистичен, что многие приняли его за настоящий.

В октябре в ходе избирательной кампании в Венгрии лидер оппозиционной партии «Тиса» Петер Мадьяр подал заявление о возбуждении уголовного дела после появления в соцсетях дипфейкового видео, на котором он якобы говорил о намерении «урезать пенсии». Ролик длительностью около 38 секунд был опубликован на официальной странице советника премьер-министра Виктора Орбана.

6. Как случаи с дипфейками влияют на эмоциональное состояние людей?

На фоне массового распространения дипфейков в мире формируется кризис аутентичности: люди начинают воспринимать любое видео или изображение как потенциальную подделку.

60 %
американцев, по данным опроса Axios за 2024 год, заявили, что не уверены в достоверности видео в сети

Дипфейки стали инструментом психологической и информационной войны — как в зоне вооруженных конфликтов, так и в мирное время. Они рассчитаны на мгновенный эффект: даже если опровержение появляется спустя час, эмоциональная реакция уже произошла.

Дипфейки из интернет-феномена превратились в универсальное информационное оружие, а их массовость делает практически невозможным привычное различие между правдой и ложью
7. Какие законодательные меры применяют против дипфейков?

В России, Китае и Европейском союзе уже разрабатываются законопроекты, предусматривающие уголовную ответственность за создание и распространение поддельных видео, способных нанести репутационный или политический ущерб.

Верховный суд предложил квалифицировать дипфейки в агитации как административное правонарушение.

43 %
россиян не могут распознать дипфейк, по данным Национального агентства финансовых исследований

Кроме того, в ноябре депутаты от партии «Справедливая Россия» предложили поправки к федеральному закону «Об информации, информационных технологиях и о защите информации». Они предполагают обязательную маркировку видео, созданных с применением искусственного интеллекта, как визуально, так и на уровне метаданных. В случае принятия инициативы Россия станет второй страной, где предусмотрены штрафы за публикацию дипфейков без маркировки. Ранее аналогичные ограничения были введены в Китае.

8. Что о будущем дипфейков говорят эксперты?

Несмотря на существующие риски, дипфейки вряд ли приведут к прямой военной эскалации, считает политолог Елена Зиновьева.

По ее словам, дипфейки действительно формируют атмосферу недоверия между государствами, что напрямую отражается на международной безопасности. «Их сила — в скорости, вирусности и эмоциональном воздействии», — подчеркивает эксперт.

В этих условиях противодействие дипфейкам в России становится долгосрочной задачей в сфере национальной безопасности, требующей конкретных законодательных решений. Не менее важно повышать цифровую грамотность граждан и развивать сотрудничество с ключевыми партнерами по БРИКС и Шанхайской организации сотрудничества (ШОС), резюмирует политолог.

< Назад в рубрику
На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия