Реклама

Реклама. 12+. ООО «Единое Видео». VK Видео: vkvideo.ru
Соглашение: vkvideo.ru/legal/terms. VK - ВК. erid: 2RanynDT8xa.

«Он встраивается во все процессы» Почему ИИ стал опасным орудием мировой политики и как его будут использовать Россия, США и Китай?

Политолог Анна Сытник: Гонка США и Китая за создание сверхинтеллекта продолжится

Фото: Станислав Красильников / РИА Новости

Искусственный интеллект (ИИ) все чаще называют одним из ключевых рисков мировой политики и международной безопасности. Дипфейки способны провоцировать дипломатические кризисы и засорять информационное пространство, а использование ИИ в военной сфере давно перестало быть фантастикой про войны роботов и стало реальностью. На этом фоне, несмотря на гонку технологий между США и Китаем, многие государства пытаются договориться об общих правилах игры. О том, какие угрозы несет ИИ для политики и дипломатии и почему он усиливает разрыв между странами, «Ленте.ру» рассказала кандидат политических наук, доцент СПбГУ и приглашенный преподаватель НИУ ВШЭ, эксперт дискуссионного клуба «Валдай» и генеральный директор АНО «Колаборатория» Анна Сытник.

«Лента.ру»: В последнее время слишком много говорят о влиянии дипфейков на политические процессы. Они и впрямь представляют реальную угрозу?

Фото предоставлено экспертом

Анна Сытник: И да и нет. Фальшивые фото и видео — не сегодняшнее открытие.

Для дискредитации политических оппонентов этим приемом пользуются очень давно. Но ретушеры и мастера фотошопа почему-то не пугают людей.

ИИ просто дал в руки обывателя гораздо более широкий инструментарий. Теперь условный школьник может за пять минут сделать «компрометирующее» видео со своей ненавистной классной руководительницей. Но, откровенно говоря, большинство людей уже привыкло к подобному контенту и не принимает все за чистую монету.

Наоборот, ИИ внес вклад в повышение критического мышления обычного человека

Тем не менее проблема есть. Ее признают, и для ее решения регуляторные органы разных стран предлагают различные меры — от запрета на генерацию подобных фото- и видеоматериалов до обязательной маркировки контента, созданного ИИ. При этом многие правительства делают ставку и на развитие цифровой грамотности населения.

Фото: Laurence Dutton / Getty Images

Но если говорить о международных отношениях, где работают образованные и опытные люди, то как дипфейки могут повлиять на их решения?

Дипфейки создают риск провокаций и ошибочных решений.

Представим, что появляется видео с заявлением лидера некой страны о ракетном ударе, мобилизации или выходе из переговоров. Даже если это фейк, в первые часы он способен запустить панику, обвалить рынки, вынудить к ответным действиям и сорвать дипломатические процессы.

Вторая проблема — размывание доказательств.

Любые реальные записи и документы становится проще оспаривать фразой «это дипфейк», что подрывает расследования, международные разбирательства и саму доказательность в политике

Есть и еще один уровень — ИИ-спам. Массовый поток синтетического контента забивает инфополе и делает управляемым внимание аудитории. В таком шуме проще скрывать правду и навязывать нужную повестку.

А что предлагается делать для борьбы с дипфейками на международном уровне?

На международном уровне бороться предлагается не запретами, а правилами и процедурами.

Во-первых, нужны заранее согласованные протоколы быстрой проверки и опровержения информации в кризисных ситуациях. Страны должны реагировать не на ролики из соцсетей, а действовать по понятной и согласованной процедуре.

Во-вторых, необходимы технические стандарты происхождения контента: маркировка синтетики, сохранение метаданных, «цепочки происхождения» для официальных видео и заявлений.

В-третьих, важно повышать ответственность платформ, чтобы политически опасные вбросы и сетевые кампании не разгонялись алгоритмами без контроля.

Наконец, нужны меры против ИИ-спама: антиспам-стандарты, прозрачность политической рекламы и сетей аккаунтов, ограничения на массовую автоматическую публикацию.

Главная цель — восстановить доверие через понятные процедуры и инфраструктуру проверки, а не надеяться на один детектор или один запрет

Владелец компании Polymath Synthetic Media Solutions Дивьендра Сингх Джадун разрабатывает дипфейк, Аджмер, Индия, 15 мая 2024 года

Владелец компании Polymath Synthetic Media Solutions Дивьендра Сингх Джадун разрабатывает дипфейк, Аджмер, Индия, 15 мая 2024 года

Фото: Himanshu Sharma / dpa / Globallookpress.com

А где ИИ может быть полезен в политических процессах?

ИИ в политике — это «сквозная технология». Он похож на электричество: его не всегда видно, но он встраивается почти во все процессы.

Прежде всего ИИ используют в государственном управлении. Он помогает быстрее обрабатывать документы и обращения граждан, выявлять ошибки и нарушения, прогнозировать нагрузку на социальные системы, поддерживать работу налоговых и контрольных органов, управлять городскими сервисами.

Это делает государство более производительным, но одновременно поднимает вопросы прозрачности: кто и как проверяет решения алгоритма

Второе ключевое направление — безопасность. ИИ анализирует большие массивы данных, помогает разведке и аналитическим центрам, используется в киберзащите, раннем выявлении угроз и мониторинге рисков. Его ценность — в скорости обработки информации, но ошибки здесь могут стоить очень дорого.

Третье направление — экономика и инфраструктура вокруг политики.

ИИ стал двигателем конкуренции: где есть вычисления, дата-центры, энергия и кадры, там больше возможностей и влияния

Именно поэтому правительства все чаще говорят об ИИ как о вопросе суверенитета. Это не просто модная тема. Без доступа к вычислениям и технологиям страна начинает зависеть от чужих правил. Этому, кстати, посвящен наш недавний доклад.

ИИ стал важным фактором международной безопасности. Как он используется военными?

ИИ — это классическая технология dual use, то есть технология двойного назначения. В современных конфликтах он активно применяется прежде всего для разведанализа, управления беспилотниками, киберопераций и ускорения принятия решений.

Это не «роботы, которые воюют сами», а усилитель скорости и точности

Но чем выше скорость, тем выше риск ошибки и эскалации. Это может приводить к ложным тревогам, неверной атрибуции и решениям «на автомате». Поэтому необходим международный диалог — согласование минимальных правил применения dual use и каналов предотвращения инцидентов даже между конкурентами.

Американцы смотрят по телевизору обращение президента США Дональда Трампа к нации, Вашингтон, США, 21 июня 2025 года

Американцы смотрят по телевизору обращение президента США Дональда Трампа к нации, Вашингтон, США, 21 июня 2025 года

Фото: Ken Cedeno / Reuters

Как технологии ИИ меняют характер военных конфликтов?

Главное изменение связано с ролью человека. Он все чаще уходит от прямого столкновения и переходит к управлению дистанционной техникой.

Теперь военный — оператор и аналитик, а не солдат в классическом смысле

Дискуссия о допустимости применения ИИ в летальных системах вооружений идет уже давно. Передача машине права самостоятельно принимать решение о нанесении удара — крайне серьезный шаг. Помимо этических вопросов возникает проблема распределения ответственности в случае фатальных ошибок.

Сейчас активно развиваются проекты по внедрению ИИ в системы противоракетной и противовоздушной обороны. Это ответ на появление гиперзвукового оружия, где скорости реакции человека уже недостаточно. И это опасное направление.

Никому не хочется, чтобы сценарий фильма «Терминатор», где система «Скайнет» решила уничтожить человечество, стал реальностью

Именно поэтому внедрение ИИ в стратегические системы вооружений будет максимально осторожным.

Использование ИИ ведет к росту вооруженных конфликтов или, наоборот, сдерживает стороны?

Сама по себе технология ИИ вряд ли приведет к росту числа конфликтов. Это скорее следствие обострения противоречий между ведущими державами за ресурсы и рынки. Но характер боевых действий, безусловно, изменится.

Есть надежда, что со временем появятся соглашения по логике контроля над ядерным вооружением: прозрачность, красные линии, каналы предотвращения инцидентов, запреты на наиболее опасные практики.

Однако реалистичный сценарий предполагает сначала фазу обострения.

Новые технологии обычно проходят этап гонки и испытаний «на практике». Лишь накопив страх ошибок и опыт, стороны готовы договариваться

Но диалог уже идет.

Боевая работа расчета БПЛА «КУБ» 288-й гвардейской артиллерийской бригады группировки войск «Запад», Харьковская область, 16 ноября 2025 года

Боевая работа расчета БПЛА «КУБ» 288-й гвардейской артиллерийской бригады группировки войск «Запад», Харьковская область, 16 ноября 2025 года

Фото: Сергей Бобылев / РИА Новости

Усиливается ли разрыв между лидерами в сфере ИИ и отстающими странами?

Сейчас идет настоящая гонка ИИ — прежде всего между США и Китаем. Это своего рода трасса без карты, поскольку четких правил пока нет.

Разрыв между лидерами и отстающими растет, потому что это гонка не только моделей, но и вычислений, энергии и инфраструктуры

У лидеров значительно больше ресурсов и денег. Размеры ВВП несопоставимы, и это напрямую влияет на возможности.

К чему приводит этот разрыв?

Он ведет к новой форме технологической зависимости. Страны начинают покупать у IT-гигантов не просто софт, а экосистемы «под ключ» вместе со стандартами и условиями доступа — фактически суверенитет как сервис.

Этому противостоят отдельные государства, в том числе Китай и Россия, а также международные форматы — ООН, БРИКС и региональные объединения.

Китай продвигает идею создания глобальной организации по ИИ, Россия эту линию поддерживает. Цель — не замедлить технологии, а выработать правила и обеспечить более справедливый доступ к инфраструктуре и данным, не допуская цифрового колониализма.

Военнослужащий в Центре сетевых операций и безопасности Космического командования ВВС на базе «Петерсон» в Колорадо-Спрингс, штат Колорадо, США 20 июля 2010 года

Военнослужащий в Центре сетевых операций и безопасности Космического командования ВВС на базе «Петерсон» в Колорадо-Спрингс, штат Колорадо, США 20 июля 2010 года

Фото: Rick Wilking / Reuters

Насколько единым в развитии ИИ выступает Европейский союз (ЕС)?

ЕС не полностью един. В регулировании он достаточно монолитен: есть общий подход к стандартам, рискам и ответственности.

Но внутри ЕС идет конкуренция за реальную мощь: вычисления, дата-центры, энергию, деньги программ и таланты

У стран разные приоритеты: промышленный ИИ, сервисы, финтех, привлечение глобальных облаков или развитие суверенных решений. Поэтому ЕС говорит одним голосом о правилах, но развивается как Европа разных скоростей.

Недавно по этой теме главный аналитик нашего центра Дарья Моисеева подготовила рабочую тетрадь о цифровом управлении в ЕС и заметку о втягивании Европейского союза в глобальную гонку ИИ.

Какова стратегия России в сфере развития ИИ?

Стратегия России должна быть не про гонку с США и Китаем, а про суверенный контур и качество внедрения.

Нужен прагматичный путь: суверенность в критических технологиях и инфраструктуре сейчас и прорывные направления на завтра

Гонка за самыми мощными моделями на текущем этапе — заведомо проигрышная стратегия. Гораздо важнее развивать международное сотрудничество, предпосылки для которого уже есть.

Национальная стратегия развития ИИ до 2030 года делает акцент на прикладном эффекте: типовые решения для отраслей, рост производительности, развитие отечественных платформ, подготовку специалистов и доверенные режимы работы с данными.

Параллельно укрепляется вычислительная и энергетическая база и выстраивается государственная координация.

Россия может показать, как сделать рывок за счет эффективного внедрения генеративного ИИ в экономику, и тем самым усилить свои позиции в гонке

Президент Франции Эммануэль Макрон выступает на открытии международного саммита по искусственному интеллекту Adopt AI в Гран-Пале в Париже, Франция, 25 ноября 2025 года

Президент Франции Эммануэль Макрон выступает на открытии международного саммита по искусственному интеллекту Adopt AI в Гран-Пале в Париже, Франция, 25 ноября 2025 года

Фото: Julien De Rosa / Pool via Reuters

С какими проблемами связано дальнейшее развитие ИИ?

Есть несколько ключевых вызовов.

Во-первых, ИИ-пузырь. Ожидания и инвестиции перегреты, особенно в США.

В 2026 году рынок будет требовать доказуемой отдачи — не демонстраций, а реального экономического эффекта

Во-вторых, нейротех и биотех. ИИ все глубже проникает в медицину, работу с биоданными и генной инженерией, что резко повышает ставки по этике и безопасности.

Третья проблема — милитаризация. Появление tech force в США это наглядно демонстрирует.

Наконец, существуют эксперименты с использованием ИИ в сомнительных политических целях, включая создание националистических языковых моделей.

Отдельный вызов — энергетический голод и уязвимость инфраструктуры: дата-центры становятся критическими объектами и трансформируются в «ИИ-бункеры»

В ближайшее время мы увидим и новый виток «повседневного ИИ»: встроенные в телефоны и операционные системы решения, массовое распространение ИИ-агентов. Меняется и образование — речь уже не о запрете, а о том, как встроить ИИ так, чтобы он усиливал мышление.

ИИ будет активно использоваться и в космической отрасли. Уже сегодня это автоматическое управление спутниковыми группировками. SpaceX применяет ИИ для эксплуатации Starlink, а компании Planet и Maxar — для анализа спутниковых снимков. Параллельно обсуждаются проекты орбитальных дата-центров.

Системный администратор в телекоммуникационном зале центра обработки данных Key Point, Владивосток, Россия, 9 июня 2023 года

Системный администратор в телекоммуникационном зале центра обработки данных Key Point, Владивосток, Россия, 9 июня 2023 года

Фото: Юрий Смитюк / ТАСС

Что будет с гонкой в сфере ИИ?

Гонка США и Китая за создание «сверхинтеллекта» продолжится, а технологический протекционизм усилится. Но параллельно развивается и сотрудничество.

Коллективные усилия мирового большинства по глобальному регулированию и балансированию этого процесса выйдут на новый уровень

Лента добра деактивирована.
Добро пожаловать в реальный мир.
На сайте используются cookies. Продолжая использовать сайт, вы принимаете условия
Ok