02 марта 2026, 14:50

Власти США внесли Claude в черный список за отказ предоставить ИИ военным, но использовали для атаки по Ирану. Чем это обернется

В США разгорается конфликт между Пентагоном и компанией Anthropic, от которой требуют убрать ограничения в нейросети Claude в государственных интересах. Последствия могут быть серьезными: мир рискует получить первый ИИ, работающий на военных без оглядки на этику и возможные жертвы. Почему это может повлиять на всю ИИ-индустрию даже в России и чем грозит такой неограниченный контроль-без-контроля, разобрались вместе с экспертами.
Власти США внесли Claude в черный список за отказ предоставить ИИ военным, но использовали для атаки по Ирану. Чем это обернется

© Коллаж: «Теперь вы знаете», создано при помощи нейросети

Роль государства привыкли связывать с ограничениями и цензурой. Действительно, многие законы регулируют информацию и способы работы с ней, так что разработчики из соображений этики, закона и безопасности вшивают в свои модели много внутренних ограничений. Но неожиданно государство же может сломать эту сложившуюся систему — когда это выгодно.

Что случилось

Глава Пентагона Пит Хегсет потребовал от руководителя Anthropic Дарио Амодея предоставить ведомству неограниченный доступ к ИИ-модели Claude. По данным CBS News, крайний срок — 27 февраля. Речь идет не о расширении контракта, а именно о снятии ограничений, которые компания встроила в модель, и предоставлении государству доступа ко всем ее функциям для любых целей.

На фоне этих требований между властями США и Anthropic грозит разгореться нешуточный конфликт. Ранее в компании заявляли, что намерены устанавливать «барьеры» в своих системах, чтобы их нельзя было использовать в неэтичных целях. Например, в массовой слежке за американцами или в системах автономного летального оружия.

Хегсет раскритиковал такой подход: по его логике, если государство покупает технологию, разработчик не должен диктовать, как именно ее применять. В Пентагоне добавили, что рамки использования ИИ и так определяются американским законодательством.

По истечении срока ультиматума стало понятно, что Antropic не собирается делать свой Claude чат-ботом для военных. В ответ Пентагон внес компанию в черные списки и запретил госкорпорациям и чиновникам сотрудничать с ней.

Президент США Дональд Трамп со страниц собственной социальной сети Truth Social потребовал от всех правительственных ведомств немедленно прекратить использование любых разработок Anthropic.

Место правой ИИ-руки при американском правительстве уже готов занять OpenAI, заявил глава компании-разработчика ChatGPT Сэм Альтман. Anthropic же пообещала обжаловать в суде свой «бан», но пока не подала заявление.

На этом фоне парадоксально взлетела популярность компании у обычных пользователей. По итогам февраля Claude впервые обогнал ChatGPT по количеству скачиваний среди приложений в AppStore.

Что это значит

Что же такого спорного в том, что государство будет использовать все возможности ИИ? А вот что: по сообщениям СМИ, Claude уже применялся США в рамках секретной военной операции против Венесуэлы. И даже разрыв сотрудничества не помешал Трампу и его военным использовать Claude для планирования атак по Ирану буквально через несколько часов после внесения Anthropic в черные списки.

Если это так, речь идет не о теоретических спорах о «безопасном ИИ», а о практическом использовании модели в военных сценариях. И вшитая в ИИ в рамках внутренних политик этика здесь действительно будет только мешать, если государство задумает поступить заведомо неэтично.

Последствия все могли видеть в фильме «Терминатор». Ведь «Скайнет» тоже начинался как мощный ИИ под контролем государства, контролирующий боевых роботов и военные дроны. А закончил — как поработитель человечества.

Но у этого сценария есть и оборотная сторона, и достаточно скептиков, которые не верят, что такое возможно. Да и нейросети пока выступают скорее как консультанты, а не как операторы ядерной кнопки. А вот что действительно реально: правила игры в ИИ-индустрии могут круто измениться.

Суть конфликта

Происходящее в США сейчас, по сути, затрагивает всю мировую индустрию ИИ и грозит стать серьезным, хотя и не уникальным прецедентом. Потому что это прямое столкновение двух подходов.

С одной стороны — технологические компании, которые пытаются встроить ограничения и сохранить контроль над применением своих систем, а также годами спорят над этичностью ИИ и разных способов его использования.

С другой — государство, которое считает, что после закупки технология должна работать по его правилам.

«Конфликт» Пентагона и Anthropic я трактую не как госвмешательство в ИИ, а как спор о праве заказчика не покупать инструмент с предустановленными запретами поставщика. Вопрос практический: может ли модель, купленная для реальных задач, отказывать в ответах или уходить в «юридические» формулировки из-за внутренних правил разработчика.

Евгений Кузнецов

По словам эксперта, цензура и идеологическая «подкрутка» часто бьют по качеству рассуждений искусственного интеллекта. Например, в медицине модели могут выявлять статистически значимые факторы (включая расовые корреляции заболеваний), а политики компаний запрещают привязывать к расе те или иные выводы. В результате попытки принудительно «сгладить» ответ нередко снижают точность диагностики.

Другой пример — жесткие ограничения в китайских системах: когда на модель накладывают чрезмерные табу, падает качество анализа и синтеза. Это было заметно особенно на ранних китайских моделях, еще не дообученных в том числе на западных примерах.

Отсюда позиция госзаказчика: речь не о навязывании компании цензуры, а о снятии самоцензуры, которая делает продукт хуже. Компания вправе не продавать его государству. Но если продает, логично требование: поставка должна быть максимально работоспособной, иначе это покупка ограничений вместо интеллекта.

Евгений Кузнецов

Ключевой момент: качество ИИ при чрезмерной регуляции может резко падать, но не все регуляторы готовы учитывать этот издержки.

С другой стороны, есть государство и его интересы. И тут классические двойные стандарты: для сильного — никаких ограничений, для остальных — строгая цензура.

В общемировом смысле это конфликт не Пентагона и Anthropic, а двух кардинально противоположных подходов: демократического, позволяющего технологиям развиваться по законам рынка, и консервативно-авторитарного, который концентрирует потенциально перспективные технологии в «нужных» руках, а остальным остается пользоваться теми плодами этих технологий, которые им разрешат. Согласно соображениям цензуры и национальной безопасности.

Если Пентагон добьется своего, крупные ИИ-разработчики фактически лишатся возможности ограничивать использование своих моделей государственными заказчиками. И тогда вопрос «кто отвечает за последствия» станет не философским, а вполне юридическим.

Где еще государство вмешивается в работу ИИ

Безусловно, пример США не уникален. Разные страны по-разному реализуют подход к контролю над ИИ. Хотя специализированных законов пока немного, практика уже диктует некоторые правила. И тут важно различать регулирование рынка и принуждение поставщика по конкретному контракту.

Эксперт Navicon Илья Народицкий перечислил несколько примеров таких подходов:

Китай

Там государственное влияние часто более «плотное», потому что правила отрасли прямо требуют соответствия политическим и контентным ограничениям. А для ряда алгоритмов предусмотрены процедуры госоценки и регистрации. Для генеративного ИИ действуют отдельные меры регулирования, а для алгоритмов рекомендаций — отдельный режим управления.

Европейский союз

Это тоже жесткое регулирование, но другого типа. «Акт об искусственном интеллекте» вводит и запреты на отдельные практики, и набор обязанностей для поставщиков мощных универсальных моделей: документация, оценка рисков, отчетность об инцидентах, кибербезопасность и так далее. Это довольно сильное регулирование, но это не про «военным все можно», а про «поставщики ИИ обязаны делать свои модели безопаснее и прозрачнее».

США

Вмешательство чаще идет через закупки и понятие «национальная безопасность». Сам по себе доступ госорганов к коммерческим моделям не уникален: Anthropic официально продвигает Claude for Government (версию ИИ, заточенную под нужды государственных ведомств), а федеральный закупочный орган США прямо пишет, что это решение рассчитано на работу с «чувствительными, но несекретными» данными и соответствует строгому стандарту безопасности для облаков в госсекторе.

Особенность нынешней истории — в публичной попытке навязать принцип «любое законное использование» и угрозах принуждения. Это уже ближе не к регулированию, а к силовому продавливанию условий.

Илья Народицкий
ИИ-эксперт, директор по стратегическим инновациям Navicon

В США традиционно действует контрактная модель: государство получает доступ через оборонные контракты, а не через прямую национализацию технологий. Пентагон активно сотрудничает с частными ИИ-компаниями. Однако требование «неограниченного доступа» к модели — уже переход от контрактной логики к квазипубличному контролю.

Мирза Чирагов
юрист, специалист по регулированию IT

Россия

В России государственное влияние на искусственный интеллект заметно сильнее через инфраструктуру, доступ к данным и госзаказ, а не через публичные ультиматумы, отмечает Народицкий. Но итоговая плотность контроля может быть сопоставимой — просто достигается другим путем. У нас это чаще проявляется как сочетание госстратегии, правовых режимов «под эксперименты», требований к данным и крупных государственных систем внедрения:

  • Стратегический уровень. На уровне государства зафиксирована Национальная стратегия развития искусственного интеллекта до 2030 года, утвержденная указом Президента. Это своеобразная рамка, от которой дальше строятся федеральные проекты, финансирование и ведомственные программы.
  • Правовой механизм «исключений ради внедрения". В России действует закон об экспериментальных правовых режимах (по сути, «регуляторные песочницы»), который позволяет на ограниченный срок вводить специальное регулирование для обкатки цифровых решений (в том числе ИИ) с участием государства как регулятора.
  • Контроль через данные (суверенитет данных). Отдельный пункт — локализация персональных данных: требования хранить персональные данные граждан России в базах данных на территории России. Это не про ИИ напрямую, но это фундамент, который определяет архитектуру ИИ-сервисов и степень внешнего контроля над ними.
  • Практическое внедрение в городских и силовых контурах. В Москве, например, развернута городская система видеонаблюдения как государственная информационная система для сбора, обработки и хранения видео, а распознавание лиц официально внедрялось как часть функциональности системы.

© Коллаж: «Теперь вы знаете», создано при помощи нейросети

ИИ под контролем государства: за и против

Эксперты отмечают, что в конечном счете тут нет универсального ответа, все зависит от точки зрения наблюдателя и его взглядов на то, как должно быть устроено общество. Илья Народицкий перечислил возможные риски:

  1. Расширение трактовки «законно". Сегодня «законно» одно, завтра закон или его толкование меняется. Если принцип «только закон ограничивает» закрепляется как стандарт, границы становятся политическим вопросом, а не инженерной и этической нормой.
  2. Понижение гражданских свобод через технологии. Даже если массовое наблюдение формально запрещено, техническая возможность плюс давление «нам надо» часто ведут к расширению практик. Необязательно сразу, иногда «через исключения».
  3. Снижение доверия к гражданским версиям ИИ. Когда вокруг продукта появляется образ «работает на силовиков», люди начинают опасаться не только цензуры, но и слежки — даже если по факту это другой контур и другие правила хранения данных (кто будет разбираться в технических нюансах).
  4. Гонка беспринципности. Если государство щедро вознаграждает поставщика за снятие ограничений, рынок получает сигнал: «самый продаваемый ИИ — самый беспринципный». Это плохой стимул для безопасности.

Но у передачи контроля за ИИ государственным структурам есть и потенциальные плюсы:

  1. Оборона и конкурентоспособность. Государство действительно отвечает за безопасность страны и будет тянуть технологии в этот контур — особенно на фоне конкуренции с другими державами.
  2. Единые требования и аудит. В идеале государство может требовать не «снять ограничения», а наоборот: логирование, расследование инцидентов, ответственность, проверяемость. Европейская модель регулирования как раз про это.

Отдельный вопрос — что при этом произойдет с безопасностью пользовательских данных. В феврале 2026 года уже прогремел скандал, когда в сервисе для проверки личности OpenAI и Discord обнаружили потенциальные связи с американскими силовыми ведомствами. Если государство захочет контролировать не только функции модели, но и ее базу данных, на которых она обучается — нет ли риска, что диалоги с пользователями станут прозрачны для госструктур?

Эксперты уверены, что здесь опасения преждевременны. Сейчас речь идет о том, как военные смогут использовать Claude и на каких условиях, а не о том, что Пентагон получит доступ к перепискам обычных пользователей.

Если речь идет о доступе к самой модели, то пользовательские данные коммерческой версии могут быть отделены. Однако, если Пентагон получает «неограниченный доступ» без архитектурной сегрегации, теоретически возможно требование логов и использование данных в рамках «национальной безопасности». С точки зрения публичного права ключевой риск не сам доступ государства, а отсутствие четких процедурных ограничений и внешнего контроля.

Мирза Чирагов

Но в случае с США здесь есть как минимум два нюанса, указал Илья Народицкий:

  • У государства и так есть правовые способы запрашивать данные. А у Anthropic и других ИИ-компаний есть публичная политика: данные раскрываются по действительной юридической процедуре — например, по повестке, ордеру, либо в экстренной ситуации.
  • Государственные версии ИИ обычно отделены от массовых. Anthropic и федеральный закупочный орган США описывают Claude for Government как отдельное предложение под строгие требования безопасности, где ведомства «сохраняют контроль над своими данными». При этом по умолчанию данные из коммерческих продуктов, включая Claude Gov, не используются для обучения моделей.

Что будет дальше

Неизвестно, чем закончится противостояние Anthropic и Пентагона, однако у администрации Трампа есть свои способы давления на бизнес. Достаточно вспомнить, как пригрозили отобрать госконтракты у SpaceX на фоне конфликта Трампа с Илоном Маском или как заставляли продать TikTok американским компаниям.

Юрист Мирза Чирагов отметил, что потенциально при получении государства полного доступа к возможностям ИИ с сохранением ограничений для гражданских существует три уровня рисков:

  • Институциональный риск. Асимметрия между военными и гражданскими пользователями может привести к ослаблению внутренних ограничений, двойным стандартам использования и снижению автономии частных компаний.
  • Риск милитаризации. Если ИИ интегрируется в закрытые военные операции, модель может быть дообучена на специфических данных, что повлияет на ее архитектуру и поведение. В долгосрочной перспективе это создает прецедент: крупные модели становятся элементом оборонной инфраструктуры. Но, возможно, это уже наша действительность
  • Риски репутации. Для компаний вроде Anthropic ценность бренда основана на безопасности и этических ограничениях, а их снятие подорвет рыночную репутацию.

Логично и ожидаемо, что государства по всему миру втягивают ИИ в оборону, госуправление и безопасность. Но правила игры меняются. И если закрепится принцип «поставщик не имеет права навязывать ограничения, кроме закона», то:

  • появится новый стандарт госконтрактов для ИИ: «любое законное использование»;
  • усилится раскол на две реальности: «гражданский ИИ с ограничениями» и «государственный ИИ без них»;
  • вырастет риск, что государственная логика начнет просачиваться в гражданские продукты через политику, давление и репутационные войны.

И общество тоже скорее всего расколется в зависимости от взглядов на то, как должно быть построено общество и его отношения с технологиями, считает Илья Народицкий.

«Правые» в этом случае будут утверждать, что армия должна выигрывать и не зависеть от моральных вкусов частной компании. Если использование законно, то здесь нечего обсуждать. К тому же конкурирующие страны не ждут, а значит, ограничения — это саморазоружение.

Но при этом государство получит еще один инструмент контроля. Сегодня военные, завтра — внутренние ведомства. Это путь к технократическому надзору и удар по свободному рынку и частной собственности, а также растущий риск подавления инакомыслия и развитие массового наблюдения за людьми.

Для «левых» скорее ближе модель европейского регулирования, когда нужны жесткие правила и публичная подотчетность, которые снижают риск возникновения «черного ящика» у частных компаний. Но ИИ становится еще одним каналом для продвижения современной повестки.

Илья Народицкий

В конечном итоге, уверен футуролог Евгений Кузнецов, перед мировым и технологическим сообществом стоит более широкий вопрос. И это не противостояние «ужасного контроля государства» с карт-бланшем на применение ИИ в самых разных, в том числе спорных этически целях, и «прекрасного, но зацензуренного в рамках частного понимания ИИ». А то, насколько в принципе уместны понятия цензуры и ограничений там, где речь идет о технологии, потенциально коренным образом меняющей наш мир.

Сторонники максимально жестких ограничений часто исходят из того, что ИИ — потенциально автономная угроза (этот взгляд подпитывают и популярные культурные образы вроде «восстания машин»). Я, как технооптимист, смотрю на это иначе: машина — инструмент в руках людей. Риск чаще связан не с «волей» и возможностями машины, а со злой волей человека и с тем, как и зачем инструмент используют.

Евгений Кузнецов

У этой философской дискуссии есть простое практическое следствие, указал Кузнецов. Ограниченный ИИ не только слабее, но и может не выдавать нужный результат в нужный момент. Он начинает работать по логике ограничений, заданных разработчиком, а не по логике задач заказчика или пользователя.

Любой желающий может сравнить поведение разных систем на сложных политических вопросах — например, по темам миграции, безопасности или конфликтов — и увидеть разницу: одни модели чаще отказываются отвечать или уходят в выхолощенные формулировки, другие дают содержательные ответы.

В итоге для меня вывод такой. Настройка ИИ и встроенная цензура сейчас частично продвигаются государствами (в некоторых странах — особенно активно), но в США параллельно идет сильная линия на дерегулирование конфигурации моделей именно потому, что это вопрос качества. Если зарегулировать ИИ, его интеллектуальная ценность падает. Если дать больше свободы — он становится заметно полезнее. По многим вопросам нет стабильных «очевидных» ответов: люди и институты, которые кажутся правыми сегодня, при другом рассмотрении могут выглядеть неправыми.

Евгений Кузнецов

Время, безусловно, всех рассудит и все покажет. Но сейчас все-таки немного тревожно: как от перспективы дать людям самых разных морально-этических взглядов ничем не ограниченный мощный инструмент изменения реальности, так и от мысли, что неограниченный инструмент будет только в руках военных. А остальные в попытках зарегулировать поведение ИИ так же, как и взгляды людей, упустят что-то очень важное, что непосредственным образом повлияет на наше с вами будущее.