Мир
00:02, 19 августа 2024

Искусственный интеллект все глубже проникает в мировую политику. Как он может изменить баланс сил и почему это опасно?

Политолог Вадим Козюлин: в сфере ИИ не избежать гонки вооружений
Елизавета Баранова

Искусственный интеллект (ИИ) совсем недавно стал частью повседневной жизни, но уже оказывает неоднозначное влияние на международные отношения. Новейшие технологии используют не только дипломаты и аналитики, их активно внедряют в военную сферу и даже политическую жизнь, что, несомненно, несет много рисков. Про опасность ИИ уже упоминал генеральный секретарь ООН Антониу Гутерриш, в этом же контексте в Европейском союзе идут дискуссии о распространении дезинформации. В свою очередь, парламентские выборы в Индии запомнились многочисленными дипфейками, которые даже оживляли умерших политиков, в Аргентине современные технологии активно использует президент Хавьер Милей, а в США Дональд Трамп и Камала Харрис продолжают обвинять друг друга в распространении фейков, сгенерированных ИИ. Наконец, реальностью становится и грядущая гонка вооружений между ведущими странами в цифровой сфере. В том, как искусственный интеллект применяют в мировой политике и какие угрозы он несет человечеству, разбиралась «Лента.ру».

1. Что такое ИИ в международных отношениях?

ИИ в международных отношениях — это совокупность технологий и алгоритмов, которые позволяют обрабатывать большие объемы данных, распознавать закономерности и принимать решения с некоторой степенью автономности.

Его используют для анализа и прогнозирования геополитических событий, обеспечения кибербезопасности, принятия решений в критических ситуациях — например, при разрешении конфликтов и реагировании на стихийные бедствия, а также для содействия переговорам.

Так, дипломаты довольно активно используют цифровые средства в своей работе — от социальных сетей и онлайн-конференций до анализа больших данных, — поэтому ИИ стал для многих довольно ценным инструментом при подготовке материалов, мониторинге информации и переводе. Например, не так давно Израиль представил универсальный языковой перевод в онлайн-режиме на основе искусственного интеллекта, который позволил руководителю цифрового департамента Министерства иностранных дел Дэвиду Саранге говорить на восьми языках без необходимости в посредничестве профессионального переводчика.

Искусственный интеллект за последние годы довольно сильно изменил формат взаимодействия стран на мировой арене. При этом и Россия, и Китай, и США признают, что ИИ может изменить баланс сил в мире.

Еще в 2017 году президент России Владимир Путин сказал: «Искусственный интеллект — это будущее не только России, но и всего человечества». Пять лет спустя генеральный секретарь Коммунистической партии Китая Си Цзиньпин заявил: «Мы сосредоточимся на национальных стратегических потребностях, соберем силы для проведения местных и ведущих научно-технических исследований и решительно выиграем битву за ключевые базовые технологии». В 2023 году же президент США Джо Байден подытожил, что будет означать ИИ для человечества: «В ближайшие 10 лет, а может быть, и в ближайшие 5 лет мы увидим больше технологических изменений, чем за последние 50 лет [...]. Искусственный интеллект ускоряет эти изменения».

2. Какие угрозы представляет ИИ для безопасности?

Распространение ИИ может привести к новому дисбалансу на мировой арене. В то время как некоторые страны используют преимущества искусственного интеллекта, другие отстают в развитии и оказываются в невыгодном положении. Конкуренция за обладание этой технологией усиливается, а сам искусственный интеллект становится ключевым фактором роста экономической и военной мощи.

По прогнозам Международного валютного фонда (МВФ), развитие ИИ может привести к автоматизации более 40 процентов рабочих мест во всем мире, при этом его влияние будет особенно заметно в сфере высококвалифицированного труда. Это даст странам с развитой экономикой значительное преимущество перед развивающимися странами, усугубляя существующий дисбаланс мирового развития и социальное неравенство.

Потенциал искусственного интеллекта, кроме того, могут в будущем использовать не только для разрешения старых конфликтов, но и для создания новых. Подобно разработке беспилотных летательных аппаратов (БПЛА) для наблюдения и разведки в боевых условиях, глобальное расширение использования ИИ может оказаться еще одним трамплином для применения новых технологий в космических и военных целях. Китай, например, активно ведет разработку спутников с поддержкой ИИ.

3. Как ИИ влияет на сферу кибербезопасности?

ИИ оказывает при этом все большее влияние на сферу кибербезопасности, причем как для защиты, так и для нападения. Дело в том, что технология способна анализировать миллионы событий в цифровой среде, выявлять различные типы угроз и даже поведение человека в сети, а также определять, кто наиболее уязвим к фишинговым атакам.

ИИ способен докопаться до систем, сетей, баз данных и моделей поведения, чтобы обнаружить даже малейшие аномалии, повышающие вероятность киберугроз. Это дает понимание того, что может быть использовано для атаки и какова ее вероятность.

В то же время ИИ может усиливать и сами киберугрозы. Преступные киберструктуры, идеологические и государственные хакеры также используют технологию, чтобы преодолевать защиту и избегать обнаружения. ИИ, более того, позволяет разрабатывать постоянно мутирующее вредоносное ПО, ускользающее от обнаружения.

4. Как ИИ применяется военными?

ИИ уже активно применяется военными, в том числе в вооруженных конфликтах.

AUKUS, трехсторонний оборонный альянс, образованный Австралией, Великобританией и США, уже испытывал автономные системы вооружения для усиления конкуренции с Китаем. Оружие с искусственным интеллектом применялось в Ливии, Йемене и на Украине. Армия обороны Израиля использовала ИИ для выбора целей при ударах по объектам палестинского движения ХАМАС в секторе Газа.

Направлений использования искусственного интеллекта в этой сфере довольно много. ИИ, например, позволяет сохранять жизни военнослужащих и делегировать опасные задачи роботам, которые могут исследовать местность, обезвреживать взрывчатку, переносить оборудование.

ИИ также влияет на процесс принятия решений: точный анализ данных помогает эффективнее выявлять и поражать противника. Автоматизированные системы принимают разумные решения с минимумом ошибок, используя информацию от беспилотников.

Однако использование искусственного интеллекта военными вызывает довольно большие опасения из-за потенциальных угроз. Во-первых, это связано с тем, что развитие технологии влияет на такие важные сферы, как разработка автономных систем вооружения, контроль и применение ядерного оружия, сбор разведывательных данных. Так, существует риск взлома и манипулирования ИИ-системами противником, что может привести к краже конфиденциальной информации. Во-вторых, ИИ остается непредсказуемым, и в случае сбоев или ошибок трудно определить ответственного, что может привести к непреднамеренному ущербу для гражданского населения.

5. Как ИИ используется в ядерной сфере?

Одна из ключевых сфер применения ИИ — ядерная наука, а именно исследования в области термоядерного синтеза, где искусственный интеллект помогает проводить эксперименты через моделирование и анализ данных. Этому, в частности, посвящен проект Международного агентства по ядерной энергии (МАГАТЭ), направленный на применение технологии в проектировании реакторов, эксплуатации АЭС, а также в обучении сотрудников атомных электростанций.

ИИ применяют для обеспечения ядерной и физической безопасности, обработки данных систем радиационного контроля и защиты, а также интеграции в ПО, связанное с радиационной защитой персонала. При этом ИИ обладает довольно большим потенциалом для оптимизации множества процессов на атомных электростанциях — например, позволяет регулировать выработку электроэнергии на основе данных о спросе потребителей, погодных условиях и производительности оборудования в реальном времени.

Автоматизация с помощью робототехники и систем ИИ может выполнять рутинные задачи, повышать эффективность использования ядерного топлива и максимизировать энергетический выход реакторов.

6. К чему может привести развитие ИИ?

Развитие новых технологий, в особенности ИИ, усиливает при этом новую технологическую гонку между странами.

В июне американский ИИ-гигант OpenAI ограничил доступ к своему сайту из Китая и специального района этой страны Гонконга. Событие стало поворотным моментом в развитии ИИ, поскольку оно показало, что конкуренция между ведущими странами в этой области начала обостряться.

Пока что Китай лидирует в военных ИИ-инновациях, но отстает от США в других сферах применения ИИ. Например, китайские языковые модели отстают от американских на несколько лет, также OpenAI доминирует в генеративных моделях. При этом достижения Китая подтолкнули США к введению санкций — например, к наложению ограничений на экспорт чипов, что лишило Китай доступа к ключевой аппаратной инфраструктуре для развития своих ИИ-систем.

Страна же, которая первой преуспеет в гонке ИИ, претендует на мировое господство, считает издание Foreign Affairs.

Однако технологическая гонка XXI века, которая напоминает космическую гонку XX века, несет большие риски. Во-первых, попытки обогнать соперников могут привести к быстрому расширению возможностей ИИ, которые еще не до конца изучены и контролируемы. Во-вторых, ИИ создает риски для безопасности из-за его милитаризации: искусственный интеллект становится новой частью третьей технической революции в военном деле и превосходит предыдущие разработки в сфере вооружений.

Вадим Козюлин, заведующий Центром глобальных исследований и международных отношений Дипломатической академии МИД России, в разговоре с «Лентой.ру» заявил, что сейчас избежать гонки вооружений в сфере новейших технологий вряд ли удастся. «Тот, кто отстанет в гонке современных технологий (и в гонке военных технологий), в случае конфликта рискует проиграть в течение очень короткого периода», — считает эксперт.

7. Зачем регулировать ИИ?

Международные соглашения времен холодной войны о нераспространении ядерного оружия и запрете биологического оружия помогли урегулировать гонку вооружений и поддержать мир. Подобные договоренности по ИИ также могут предотвратить его неконтролируемое применение.

В условиях международной напряженности расширение сотрудничества по вопросам развития ИИ может снизить риск несогласованного внедрения этих технологий в военной сфере. Это, в свою очередь, уменьшит вероятность технологических катастроф и будет способствовать более осторожному и устойчивому развитию ИИ.

Но при этом в сфере ИИ странам очень трудно договориться даже о том, что можно контролировать, отметил в комментарии для «Ленты.ру» научный сотрудник Центра международной безопасности Института мировой экономики и международных отношений РАН Дмитрий Стефанович.

«В отличие от более традиционных сфер контроля над вооружениями и нераспространением, в которых тоже не все гладко, в случае с ИИ по большому счету отсутствует измеряемый предмет для контроля», — отметил эксперт. По его мнению, странам сначала надо сформировать общее понимание, что представляет собой ИИ в сфере международной безопасности. Без этого, по словам Дмитрия Стефановича, снижения накала конкуренции ожидать не стоит.

С ним соглашается и политолог Вадим Козюлин. По его словам, желание и готовность договориться у ведущих стран присутствует и это действительно нужно, но есть много неопределенностей: «Тема очень сложная юридически и технически. Пока не очень понятно, как эту быстро развивающуюся сферу можно контролировать. Старые схемы здесь не работают».

< Назад в рубрику