19 марта 2026, 14:56

В России могут заблокировать привычные нейросети из-за нового закона. Как планируют регулировать ИИ

Россия готовит первый системный закон об искусственном интеллекте — и он может заметно поменять и рынок ИИ, и уже ставший привычным для россиян ландшафт нейросетей. Формально речь о создании условий для «развитии технологий», но по факту — о контролируемой и частично суверенной экосистеме, где нет места немаркированному ИИ-контенту и сомнительным с точки зрения политик иностранным моделям. Разбираемся с экспертами, что именно предлагают и что изменится для пользователей.
В России могут заблокировать привычные нейросети из-за нового закона. Как планируют регулировать ИИ

© Коллаж: «Теперь вы знаете», создано при помощи нейросети

Что предлагают

Законопроект вводит базовую архитектуру регулирования ИИ: от определения терминов до требований к разработчикам, сервисам и пользователям. Его цель — одновременно ускорить развитие технологий и обеспечить «технологическую независимость» и безопасность.

Ключевая идея — не просто регулировать рынок, а выстроить систему «доверенных моделей». Это означает:

  • появление реестра ИИ, допущенных к использованию в госструктурах и критической инфраструктуре;
  • требования к локализации данных и разработке внутри России;
  • возможность ограничивать трансграничные решения.

Юрист Мирза Чирагов прямо называет это переходом к «контролируемому и частично суверенному ИИ-рынку».

Закон вводит не просто требования к безопасности, а фактически формирует инфраструктуру «доверенных моделей» и приоритет национальных решений.

Мирза Чирагов
юрист, специалист по IT-сфере

Какие основные изменения

Главное, что нужно знать, — закон регулирует не только разработчиков, но всю цепочку: от модели до пользователя. И вводит новые обязанности почти для всех участников рынка. А значит, в случае его принятия отдельные положения затронут всех, кто так или иначе использует нейросети.

1. «Доверенные модели» и приоритет российских решений

Государственные системы и критическая инфраструктура смогут использовать только модели из специального реестра.

Чтобы туда попасть, модель должна:

  • соответствовать требованиям безопасности,
  • обрабатывать данные внутри России,
  • пройти проверку качества.

Это создает фильтр для иностранных сервисов и сделает российские модели, такие как GigaChat и YandexAI, приоритетными как минимум для использования в бизнесе и госаппарате.

2. Обязательная маркировка ИИ-контента

Любой сгенерированный контент должен помечаться как созданный ИИ. Причем отметку должны быть способны распознать как пользователи, так и машинные алгоритмы.

Это касается:

  • текстов;
  • изображений;
  • видео и аудио.

Если законопроект примут, сгенерированный в ИИ контент получит специальную метку. А попытки эту метку убрать или не публиковать могут расценить как нарушение закона.

Для обычного пользователя это снизит риски быть обманутым «дипфейками» или фейковыми новостями. Однако закон вводит и ответственность для самих граждан: удаление такой маркировки с целью ввести других в заблуждение станет административным правонарушением (п. 7 ст. 12), для чего потребуется готовить пакет поправок в Кодекс об административных правонарушениях РФ.

Антон Палюлин
юрист, судебный эксперт, сооснователь адвокатского бюро «Палюлин и партнеры»

Юрист также указал, что пользователи социальных сетей и мессенджеров с суточной аудиторией более 100 тысяч человек (фактически блогеры и СМИ) обязаны будут проверять наличие такой маркировки и удалять немаркированный синтезированный контент. Это создает новый уровень ответственности за распространение информации.

3. Право знать и отказаться

Если решение (например, по кредиту, найму или тарифу) принимает алгоритм, пользователя обязаны об этом уведомить. Равно как и в случае, если в техподдержке вместо оператора отвечает голосовой или чат-бот.

По задумке авторов законопроекта, это позволит:

  • оспорить такое решение в досудебном порядке на основании того, что решение принял алгоритм;
  • в ряде случаев — потребовать «живого» человека вместо ИИ и отказаться от ИИ-услуг.

4. Ответственность за поведение алгоритмов

Разработчики и операторы будут обязаны:

  • предотвращать дискриминацию;
  • учитывать риски;
  • документировать работу моделей;
  • останавливать систему при угрозе вреда.

Это еще один фактор, который может исключить некоторые иностранные модели из числа разрешенных в России. Если они не будут выполнять требования российского законодательства и, например, хранить логи пользователей на российских серверах (чего сейчас почти нигде нет) и ограничивать незаконные сценарии использования нейронок, то РКН будет проще заблокировать к ним доступ. Пользоваться же такими нейросетями можно будет на свой страх и риск — и самостоятельно следить за тем, чтобы контент ничего не нарушал.

Вместе с тем эти требования логично отвечают на уже существующие и доказанные риски применения нейросетей, например, в найме. Теперь работодатели, решившие автоматизировать работу HR-отдела, должны будут особенно внимательно следить, чтобы модель не воспроизводила дискриминационные паттерны при отсеве кандидатов.

Также это прямой ответ на риски манипуляции поведением, например, в рекламе или политической агитации, когда алгоритм подбирает контент, пользуясь временной слабостью или неопытностью человека.

Законопроект вводит принципиальные запреты дискриминации. Разработчик модели ИИ обязан исключить ее функциональные особенности, способные привести к дискриминации (ст. 10), а оператор системы — не допускать эксплуатации уязвимостей человека (возрастных, психологических, когнитивных).

Антон Палюлин

5. Контроль контента и ограничение функций

Сервисы должны:

  • блокировать противоправный контент;
  • не допускать манипуляции пользователями и навязывания определенного мировоззрения;
  • учитывать «традиционные ценности».

Этот пункт — одно из ключевых отличий российской модели регулирования от европейской, отмечают юристы. И он же может стать камнем преткновения.

На Западе, например, дискриминацией могут считать просьбу сгенерировать изображение счастливой семьи из белокожих мужчины и женщины — некоторые нейросети прямо отказывают на такие запросы. А в России, напротив, какие-то вариации семьи, кроме классической м+ж, могут счесть нарушением законов против ЛГБТ (признано экстремистским и запрещено в России) и дискриминацией традиционных ценностей.

Такая разница подходов создает риски, что какие-то модели просто не пройдут фильтр цензуры.

6. Изменения в авторском праве

С точки зрения авторского права закон фиксирует важный принцип: результаты, созданные с помощью ИИ, могут охраняться — но только если они действительно оригинальны, объяснил юрист Антон Палюлин.

Здесь он опирается на уже существующую логику Гражданского кодекса. В российском праве объектом авторских прав считается только результат творческого труда человека. Например, фотографии защищаются — но не любые, а те, где есть выбор автора: композиция, свет, ракурс, момент съемки. А вот снимок документа или кадр с камеры наблюдения — это просто фиксация факта, без творчества, и под защиту не попадает.

Эту же границу закон переносит на ИИ. Ключевой вопрос — есть ли в результате вклад человека. Если пользователь просто нажал кнопку — с защитой будут проблемы. Если же он работает как автор — придумывает промпты, отбирает, комбинирует и дорабатывает результат, — такие работы могут считаться произведением. Но как это доказывать — большой вопрос.

Отдельно закрепляется право использовать чужие материалы для обучения ИИ без согласия правообладателя — если доступ к ним получен законно. Для креативных индустрий это двойственная история: с одной стороны, работы художников, писателей и музыкантов могут использоваться для обучения моделей, с другой — собственные ИИ-результаты при наличии творческого вклада тоже получают защиту.

Как это изменит жизнь россиян

На уровне пользователя изменения, возможно, не будут заметны сразу — но вот влияние их будет очевидным.

Что станет удобнее:

  • появится право оспаривать решения алгоритмов (например, отказ в кредите);
  • станет понятнее, где ИИ, а где человек;
  • снизится риск дипфейков за счет маркировки.

Что станет сложнее:

  • часть привычных сервисов может исчезнуть или работать с ограничениями;
  • появятся ограничения на функциональность нейросетей;
  • увеличится контроль за контентом, государство получает механизмы мониторинга и вмешательства в работу систем.

Самое чувствительное изменение — косвенное ограничение иностранных моделей. Прямого запрета в законе нет, но логически вытекает, что, если сервис не локализует данные, не пройдет сертификацию и не адаптируется под требования, его использование могут ограничить, особенно в публичном секторе.

Конструкция регулирования создает косвенный барьер, который на практике может привести к ограничению иностранных сервисов (требования по локализации персональных данных, безопасность, ограничение трансграничных ИИ-моделей, возможность введения перечня «доверенных моделей» и через другие механизмы).

Мирза Чирагов

Именно отсюда возникает риск, что привычные нейронки станут недоступны для россиян.

Какие появятся штрафы и наказания

Как таковых конкретных цифр в законопроекте пока нет. Документ описывает общую рамку ответственности, а сами санкции будут закрепляться отдельно в КоАП и других актах.

Но уже сейчас понятны базовые принципы:

  • ответственность несут все участники — разработчик, оператор, владелец сервиса и пользователь;
  • распределяется она по степени вины;
  • за нарушения возможны административные и уголовные меры.

Отдельно вводится новая категория административных нарушений: удаление маркировки ИИ-контента. Крупные соцсети, блогеров и СМИ обяжут проверять ее наличие, а в случае отсутствия самостоятельно маркировать или удалять контент.

Также разграничены зоны ответственности в случае, если использование ИИ как-то нарушило закон или задело чьи-то права:

  • использование ИИ для незаконных целей — ответственность пользователя;
  • недостаточный контроль со стороны разработчика — ответственность компании.

Основные изменения

Как естьКак будет
Нейросети работают без единого законаПоявляется базовый федеральный закон об ИИ
ИИ-контент часто неотличим от реальногоОбязательная маркировка всего сгенерированного
Решения алгоритмов непрозрачныОбязательное уведомление + право оспаривания
Любые сервисы доступны (при желании)Фильтр через «доверенные модели»
Ответственность размытаЧеткое распределение между участниками
Иностранные модели доминируютПриоритет национальных и локализованных решений

Чего ждать от нового закона отрасли

На самом деле закон о регулировании ИИ назрел давно, и что в России, что в мире в ближайшее время ожидается целая пачка таких актов и проектов. Сейчас в этой сфере творится «цифровая вольница», которая создает слишком богатое поле для злоупотреблений. И это мы еще не говорим о рисках, которые исходят от самих быстро развивающихся больших языковых моделей.

Основной риск в том, что закон, который пытается решить сразу несколько задач отрасли, может вместе с водой выплеснуть и ребенка. И, с одной стороны, создаст более безопасное ИИ-пространство, где права человека будут лучше защищены. А с другой — чрезмерно его зарегулировать, из-за чего отечественные разработчики будут отставать от зарубежных из-за искусственно созданных барьеров. В то время как плодами иностранных ИИ и нейросетей будет пользоваться опаснее и сложнее.