В России предложили запретить зарубежные ИИ для чиновников. Зачем это нужно и как будет работать
© Коллаж: «Теперь вы знаете», создано при помощи нейросети
Что именно предлагают запретить российским чиновникам
Ассоциация юристов России разработала концепцию федерального закона, который должен регулировать применение искусственного интеллекта в органах публичной власти и на объектах критической информационной инфраструктуры. Документ уже направили в межведомственную комиссию при президенте.
Одно из ключевых предложений — ограничить использование в государственных структурах систем искусственного интеллекта, принадлежащих иностранным компаниям. Речь идет о сервисах, которые работают на зарубежных облачных платформах и обрабатывают данные вне российской юрисдикции. Это и ChatGPT, и Grok, и Gemini, и даже китайские Qwen и DeepSeek.
Комиссия по новым технологиям и правовому обеспечению цифровизации общества подготовила концепцию еще в декабре прошлого года. После этого ключевые положения законопроекта передали заинтересованным органам власти. 3 января 2026 года президент Владимир Путин поручил подготовить правовые акты по регулированию использования ИИ и создать межведомственную комиссию по вопросам развития этих технологий.
16 февраля документ официально направили в эту комиссию для рассмотрения.
Зачем это нужно в России и почему к ИИ в госсекторе столько внимания
Россия сегодня одна из лидирующих стран в области разработок искусственного интеллекта. Системы ИИ уже используют почти везде — от повседневных задач до управления сложным производством. В государственном управлении их потенциал тоже очевиден: они помогают анализировать данные, готовить решения и упрощают взаимодействие граждан с ведомствами, в том числе при оказании госуслуг.
При этом вопросы его практического применения по-прежнему остаются вне четко выстроенного правового поля — и это касается не только России, но и многих других стран.
Там, где искусственный интеллект влияет на защищенность прав граждан и напрямую связан с вопросами суверенитета, правила должны быть четкими и понятными. В таких зонах речь идет не только о технологиях, но и о безопасности. И поэтому именно в госсекторе риски выше, чем в частной жизни.
На Западе уже давно поняли, что ИИ без контроля и регулирования становится просто опасен. Пионерами в регулировании государственного использования ИИ считаются ЕС, США и ОАЭ. Особенно жесткий подход выбрал Евросоюз — его законодательство вводит строгие требования к тому, как такие системы можно применять в управлении и в чувствительных сферах.
Назрела такая необходимость и для России. Задача со звездочкой: нужно одновременно сохранить технологическое лидерство и обеспечить защиту прав граждан. Поэтому возникает необходимость выработать собственную модель регулирования. Определенные подвижки в этом направлении уже начались.
Но еще до того, как появятся четкие правила игры в российском законодательстве, нужно понять, что делать с теми моделями, которые российской юрисдикции не подчиняются. По словам авторов инициативы, иностранные ИИ, массово использующиеся россиянами, уже сейчас создают угрозу утечки чувствительной информации.
Связано это в первую очередь с рисками утечки чувствительной и стратегически важной информации... которые существуют при применении иностранных и открытых систем ИИ, доминирующих на рынке. Речь идет о данных, связанных с технологиями, обороной, промышленностью, недрами и стратегическими ресурсами.
При этом полностью отказаться от искусственного интеллекта государство не может. Это означало бы серьезный шаг назад в развитии технологий и управленческих процессов.
Что россиянам предлагают взамен
Законопроект не предполагает запрета ИИ как такового. Речь идет о том, чтобы закрепить правила его безопасного использования в государственном секторе и сделать ставку на отечественные разработки.
Предлагается:
- закрепить базовые понятия и правовые основы применения ИИ в госсфере;
- ввести систему лицензирования таких систем;
- разделить их по степени риска;
- дать правительству возможность оперативно менять критерии безопасности.
По задумке авторов, это позволит выстроить гибкую систему регулирования, которая будет учитывать и требования безопасности, и интересы российских разработчиков.
Дмитрий Липин подчеркивает, что инициативу не стоит воспринимать как попытку резко ограничить технологии.
Очевидно, что просто взять и запретить использовать системы искусственного интеллекта в органах власти — это колоссальный откат в прогрессе, который в сегодняшних условиях... мы себе позволить не можем.
Вместо зарубежных моделей будут использоваться российские, которые уже показали неплохие результаты. При этом возможны варианты: более лайтовый, когда чиновники смогут без ограничений использовать любые отечественные решения на выбор (GigaChat, YandexAI и др.), или же создание единого ИИ специально для госсектора с защищенным контуром.
Часть норм уже начинает действовать
При этом некоторые требования к безопасности ИИ в госсекторе уже вводятся.
По факту законодательная база уже работает: с 1 марта 2026 вступает в силу приказ ФСТЭК № 117 — первый в России комплексный стандарт безопасности ИИ для госсектора и КИИ. Он устанавливает контроль достоверности ответов, запрет облачных иностранных сервисов, требования к защите данных и архитектуры.
По его словам, сейчас вопрос не в отсутствии норм, а в том, насколько быстро их внедрят на практике. Параллельно готовится и закон о робототехнике, где пропишут ответственность за решения, принятые с участием ИИ.
Запретят ли остальным россиянам зарубежные нейросети
Авторы инициативы подчеркивают: речь идет не о тотальной блокировке иностранных сервисов для всех. Россияне смогут продолжать использовать иностранные нейросети наравне с отечественными (если, конечно, пробьются через блокировки с другой стороны, так как ряд сервисов не дает доступ российским IP).
Следует развеять опасения со стороны и российских, и зарубежных разработчиков, чьи системы уже представлены на рынке, — законопроект в случае его принятия никаким образом не затронет их права, интересы и доходы, поскольку его применение будет ограничено только теми сферами, которые непосредственно связаны с обеспечением прав и законных интересов граждан, а также государственного суверенитета.
Это значит, что для обычных пользователей и бизнеса использование зарубежных нейросетей пока не рассматривается как объект жесткого регулирования. Наоборот, эксперты отмечают, что излишние ограничения в частной сфере могут замедлить технологическое развитие.
Государство же, по сути, хочет выстроить модель, которая учитывает опыт других стран. В ЕС, США и ОАЭ уже действуют достаточно строгие правила использования ИИ в государственных системах. В условиях недружественной международной обстановки попытки ограничить потенциальные утечки информации на заграничные серверы — разумная предосторожность.
Если закон примут, чиновникам, скорее всего, придется переходить на отечественные решения. Это должно снизить риски утечек данных и одновременно поддержать развитие российских технологий.
Но даже без строгого закона уже сейчас говорят, что с ИИ не стоит откровенничать и загружать в него конфиденциальные данные — кто знает, кто сможет их прочесть после вас и не выдаст ли их нейросеть другому пользователю при правильном запросе.