17 февраля 2026, 16:20

В России предложили запретить зарубежные ИИ для чиновников. Зачем это нужно и как будет работать

Ассоциация юристов России подготовила законопроект, который может запретить российским ведомствам использовать в работе ChatGPT и другие зарубежные нейросети. Причина — опасность раскрытия чувствительных и стратегически важных данных, о которой так много говорили эксперты. Что останется в арсенале чиновников и могут ли полностью заблокировать эти нейросети в России, объясняют авторы инициативы.
В России предложили запретить зарубежные ИИ для чиновников. Зачем это нужно и как будет работать

© Коллаж: «Теперь вы знаете», создано при помощи нейросети

Что именно предлагают запретить российским чиновникам

Ассоциация юристов России разработала концепцию федерального закона, который должен регулировать применение искусственного интеллекта в органах публичной власти и на объектах критической информационной инфраструктуры. Документ уже направили в межведомственную комиссию при президенте.

Одно из ключевых предложений — ограничить использование в государственных структурах систем искусственного интеллекта, принадлежащих иностранным компаниям. Речь идет о сервисах, которые работают на зарубежных облачных платформах и обрабатывают данные вне российской юрисдикции. Это и ChatGPT, и Grok, и Gemini, и даже китайские Qwen и DeepSeek.

Комиссия по новым технологиям и правовому обеспечению цифровизации общества подготовила концепцию еще в декабре прошлого года. После этого ключевые положения законопроекта передали заинтересованным органам власти. 3 января 2026 года президент Владимир Путин поручил подготовить правовые акты по регулированию использования ИИ и создать межведомственную комиссию по вопросам развития этих технологий.

16 февраля документ официально направили в эту комиссию для рассмотрения.

Зачем это нужно в России и почему к ИИ в госсекторе столько внимания

Россия сегодня одна из лидирующих стран в области разработок искусственного интеллекта. Системы ИИ уже используют почти везде — от повседневных задач до управления сложным производством. В государственном управлении их потенциал тоже очевиден: они помогают анализировать данные, готовить решения и упрощают взаимодействие граждан с ведомствами, в том числе при оказании госуслуг.

При этом вопросы его практического применения по-прежнему остаются вне четко выстроенного правового поля — и это касается не только России, но и многих других стран.

Там, где искусственный интеллект влияет на защищенность прав граждан и напрямую связан с вопросами суверенитета, правила должны быть четкими и понятными. В таких зонах речь идет не только о технологиях, но и о безопасности. И поэтому именно в госсекторе риски выше, чем в частной жизни.

На Западе уже давно поняли, что ИИ без контроля и регулирования становится просто опасен. Пионерами в регулировании государственного использования ИИ считаются ЕС, США и ОАЭ. Особенно жесткий подход выбрал Евросоюз — его законодательство вводит строгие требования к тому, как такие системы можно применять в управлении и в чувствительных сферах.

Назрела такая необходимость и для России. Задача со звездочкой: нужно одновременно сохранить технологическое лидерство и обеспечить защиту прав граждан. Поэтому возникает необходимость выработать собственную модель регулирования. Определенные подвижки в этом направлении уже начались.

Но еще до того, как появятся четкие правила игры в российском законодательстве, нужно понять, что делать с теми моделями, которые российской юрисдикции не подчиняются. По словам авторов инициативы, иностранные ИИ, массово использующиеся россиянами, уже сейчас создают угрозу утечки чувствительной информации.

Связано это в первую очередь с рисками утечки чувствительной и стратегически важной информации... которые существуют при применении иностранных и открытых систем ИИ, доминирующих на рынке. Речь идет о данных, связанных с технологиями, обороной, промышленностью, недрами и стратегическими ресурсами.

Дмитрий Липин
к. ю. н., зампредседателя правления Ассоциации юристов России

При этом полностью отказаться от искусственного интеллекта государство не может. Это означало бы серьезный шаг назад в развитии технологий и управленческих процессов.

Что россиянам предлагают взамен

Законопроект не предполагает запрета ИИ как такового. Речь идет о том, чтобы закрепить правила его безопасного использования в государственном секторе и сделать ставку на отечественные разработки.

Предлагается:

  • закрепить базовые понятия и правовые основы применения ИИ в госсфере;
  • ввести систему лицензирования таких систем;
  • разделить их по степени риска;
  • дать правительству возможность оперативно менять критерии безопасности.

По задумке авторов, это позволит выстроить гибкую систему регулирования, которая будет учитывать и требования безопасности, и интересы российских разработчиков.

Дмитрий Липин подчеркивает, что инициативу не стоит воспринимать как попытку резко ограничить технологии.

Очевидно, что просто взять и запретить использовать системы искусственного интеллекта в органах власти — это колоссальный откат в прогрессе, который в сегодняшних условиях... мы себе позволить не можем.

Дмитрий Липин

Вместо зарубежных моделей будут использоваться российские, которые уже показали неплохие результаты. При этом возможны варианты: более лайтовый, когда чиновники смогут без ограничений использовать любые отечественные решения на выбор (GigaChat, YandexAI и др.), или же создание единого ИИ специально для госсектора с защищенным контуром.

Часть норм уже начинает действовать

При этом некоторые требования к безопасности ИИ в госсекторе уже вводятся.

По факту законодательная база уже работает: с 1 марта 2026 вступает в силу приказ ФСТЭК № 117 — первый в России комплексный стандарт безопасности ИИ для госсектора и КИИ. Он устанавливает контроль достоверности ответов, запрет облачных иностранных сервисов, требования к защите данных и архитектуры.

Станислав Ежов
директор по ИИ «Группы Астра»

По его словам, сейчас вопрос не в отсутствии норм, а в том, насколько быстро их внедрят на практике. Параллельно готовится и закон о робототехнике, где пропишут ответственность за решения, принятые с участием ИИ.

Запретят ли остальным россиянам зарубежные нейросети

Авторы инициативы подчеркивают: речь идет не о тотальной блокировке иностранных сервисов для всех. Россияне смогут продолжать использовать иностранные нейросети наравне с отечественными (если, конечно, пробьются через блокировки с другой стороны, так как ряд сервисов не дает доступ российским IP).

Следует развеять опасения со стороны и российских, и зарубежных разработчиков, чьи системы уже представлены на рынке, — законопроект в случае его принятия никаким образом не затронет их права, интересы и доходы, поскольку его применение будет ограничено только теми сферами, которые непосредственно связаны с обеспечением прав и законных интересов граждан, а также государственного суверенитета.

Дмитрий Липин

Это значит, что для обычных пользователей и бизнеса использование зарубежных нейросетей пока не рассматривается как объект жесткого регулирования. Наоборот, эксперты отмечают, что излишние ограничения в частной сфере могут замедлить технологическое развитие.

Государство же, по сути, хочет выстроить модель, которая учитывает опыт других стран. В ЕС, США и ОАЭ уже действуют достаточно строгие правила использования ИИ в государственных системах. В условиях недружественной международной обстановки попытки ограничить потенциальные утечки информации на заграничные серверы — разумная предосторожность.

Если закон примут, чиновникам, скорее всего, придется переходить на отечественные решения. Это должно снизить риски утечек данных и одновременно поддержать развитие российских технологий.

Но даже без строгого закона уже сейчас говорят, что с ИИ не стоит откровенничать и загружать в него конфиденциальные данные — кто знает, кто сможет их прочесть после вас и не выдаст ли их нейросеть другому пользователю при правильном запросе.