В России могут заблокировать привычные нейросети из-за нового закона. Как планируют регулировать ИИ
© Коллаж: «Теперь вы знаете», создано при помощи нейросети
Что предлагают
Законопроект вводит базовую архитектуру регулирования ИИ: от определения терминов до требований к разработчикам, сервисам и пользователям. Его цель — одновременно ускорить развитие технологий и обеспечить «технологическую независимость» и безопасность.
Ключевая идея — не просто регулировать рынок, а выстроить систему «доверенных моделей». Это означает:
- появление реестра ИИ, допущенных к использованию в госструктурах и критической инфраструктуре;
- требования к локализации данных и разработке внутри России;
- возможность ограничивать трансграничные решения.
Юрист Мирза Чирагов прямо называет это переходом к «контролируемому и частично суверенному ИИ-рынку».
Закон вводит не просто требования к безопасности, а фактически формирует инфраструктуру «доверенных моделей» и приоритет национальных решений.
Какие основные изменения
Главное, что нужно знать, — закон регулирует не только разработчиков, но всю цепочку: от модели до пользователя. И вводит новые обязанности почти для всех участников рынка. А значит, в случае его принятия отдельные положения затронут всех, кто так или иначе использует нейросети.
1. «Доверенные модели» и приоритет российских решений
Государственные системы и критическая инфраструктура смогут использовать только модели из специального реестра.
Чтобы туда попасть, модель должна:
- соответствовать требованиям безопасности,
- обрабатывать данные внутри России,
- пройти проверку качества.
Это создает фильтр для иностранных сервисов и сделает российские модели, такие как GigaChat и YandexAI, приоритетными как минимум для использования в бизнесе и госаппарате.
2. Обязательная маркировка ИИ-контента
Любой сгенерированный контент должен помечаться как созданный ИИ. Причем отметку должны быть способны распознать как пользователи, так и машинные алгоритмы.
Это касается:
- текстов;
- изображений;
- видео и аудио.
Если законопроект примут, сгенерированный в ИИ контент получит специальную метку. А попытки эту метку убрать или не публиковать могут расценить как нарушение закона.
Для обычного пользователя это снизит риски быть обманутым «дипфейками» или фейковыми новостями. Однако закон вводит и ответственность для самих граждан: удаление такой маркировки с целью ввести других в заблуждение станет административным правонарушением (п. 7 ст. 12), для чего потребуется готовить пакет поправок в Кодекс об административных правонарушениях РФ.
Юрист также указал, что пользователи социальных сетей и мессенджеров с суточной аудиторией более 100 тысяч человек (фактически блогеры и СМИ) обязаны будут проверять наличие такой маркировки и удалять немаркированный синтезированный контент. Это создает новый уровень ответственности за распространение информации.
3. Право знать и отказаться
Если решение (например, по кредиту, найму или тарифу) принимает алгоритм, пользователя обязаны об этом уведомить. Равно как и в случае, если в техподдержке вместо оператора отвечает голосовой или чат-бот.
По задумке авторов законопроекта, это позволит:
- оспорить такое решение в досудебном порядке на основании того, что решение принял алгоритм;
- в ряде случаев — потребовать «живого» человека вместо ИИ и отказаться от ИИ-услуг.
4. Ответственность за поведение алгоритмов
Разработчики и операторы будут обязаны:
- предотвращать дискриминацию;
- учитывать риски;
- документировать работу моделей;
- останавливать систему при угрозе вреда.
Это еще один фактор, который может исключить некоторые иностранные модели из числа разрешенных в России. Если они не будут выполнять требования российского законодательства и, например, хранить логи пользователей на российских серверах (чего сейчас почти нигде нет) и ограничивать незаконные сценарии использования нейронок, то РКН будет проще заблокировать к ним доступ. Пользоваться же такими нейросетями можно будет на свой страх и риск — и самостоятельно следить за тем, чтобы контент ничего не нарушал.
Вместе с тем эти требования логично отвечают на уже существующие и доказанные риски применения нейросетей, например, в найме. Теперь работодатели, решившие автоматизировать работу HR-отдела, должны будут особенно внимательно следить, чтобы модель не воспроизводила дискриминационные паттерны при отсеве кандидатов.
Также это прямой ответ на риски манипуляции поведением, например, в рекламе или политической агитации, когда алгоритм подбирает контент, пользуясь временной слабостью или неопытностью человека.
Законопроект вводит принципиальные запреты дискриминации. Разработчик модели ИИ обязан исключить ее функциональные особенности, способные привести к дискриминации (ст. 10), а оператор системы — не допускать эксплуатации уязвимостей человека (возрастных, психологических, когнитивных).
5. Контроль контента и ограничение функций
Сервисы должны:
- блокировать противоправный контент;
- не допускать манипуляции пользователями и навязывания определенного мировоззрения;
- учитывать «традиционные ценности».
Этот пункт — одно из ключевых отличий российской модели регулирования от европейской, отмечают юристы. И он же может стать камнем преткновения.
На Западе, например, дискриминацией могут считать просьбу сгенерировать изображение счастливой семьи из белокожих мужчины и женщины — некоторые нейросети прямо отказывают на такие запросы. А в России, напротив, какие-то вариации семьи, кроме классической м+ж, могут счесть нарушением законов против ЛГБТ (признано экстремистским и запрещено в России) и дискриминацией традиционных ценностей.
Такая разница подходов создает риски, что какие-то модели просто не пройдут фильтр цензуры.
6. Изменения в авторском праве
С точки зрения авторского права закон фиксирует важный принцип: результаты, созданные с помощью ИИ, могут охраняться — но только если они действительно оригинальны, объяснил юрист Антон Палюлин.
Здесь он опирается на уже существующую логику Гражданского кодекса. В российском праве объектом авторских прав считается только результат творческого труда человека. Например, фотографии защищаются — но не любые, а те, где есть выбор автора: композиция, свет, ракурс, момент съемки. А вот снимок документа или кадр с камеры наблюдения — это просто фиксация факта, без творчества, и под защиту не попадает.
Эту же границу закон переносит на ИИ. Ключевой вопрос — есть ли в результате вклад человека. Если пользователь просто нажал кнопку — с защитой будут проблемы. Если же он работает как автор — придумывает промпты, отбирает, комбинирует и дорабатывает результат, — такие работы могут считаться произведением. Но как это доказывать — большой вопрос.
Отдельно закрепляется право использовать чужие материалы для обучения ИИ без согласия правообладателя — если доступ к ним получен законно. Для креативных индустрий это двойственная история: с одной стороны, работы художников, писателей и музыкантов могут использоваться для обучения моделей, с другой — собственные ИИ-результаты при наличии творческого вклада тоже получают защиту.
Как это изменит жизнь россиян
На уровне пользователя изменения, возможно, не будут заметны сразу — но вот влияние их будет очевидным.
Что станет удобнее:
- появится право оспаривать решения алгоритмов (например, отказ в кредите);
- станет понятнее, где ИИ, а где человек;
- снизится риск дипфейков за счет маркировки.
Что станет сложнее:
- часть привычных сервисов может исчезнуть или работать с ограничениями;
- появятся ограничения на функциональность нейросетей;
- увеличится контроль за контентом, государство получает механизмы мониторинга и вмешательства в работу систем.
Самое чувствительное изменение — косвенное ограничение иностранных моделей. Прямого запрета в законе нет, но логически вытекает, что, если сервис не локализует данные, не пройдет сертификацию и не адаптируется под требования, его использование могут ограничить, особенно в публичном секторе.
Конструкция регулирования создает косвенный барьер, который на практике может привести к ограничению иностранных сервисов (требования по локализации персональных данных, безопасность, ограничение трансграничных ИИ-моделей, возможность введения перечня «доверенных моделей» и через другие механизмы).
Именно отсюда возникает риск, что привычные нейронки станут недоступны для россиян.
Какие появятся штрафы и наказания
Как таковых конкретных цифр в законопроекте пока нет. Документ описывает общую рамку ответственности, а сами санкции будут закрепляться отдельно в КоАП и других актах.
Но уже сейчас понятны базовые принципы:
- ответственность несут все участники — разработчик, оператор, владелец сервиса и пользователь;
- распределяется она по степени вины;
- за нарушения возможны административные и уголовные меры.
Отдельно вводится новая категория административных нарушений: удаление маркировки ИИ-контента. Крупные соцсети, блогеров и СМИ обяжут проверять ее наличие, а в случае отсутствия самостоятельно маркировать или удалять контент.
Также разграничены зоны ответственности в случае, если использование ИИ как-то нарушило закон или задело чьи-то права:
- использование ИИ для незаконных целей — ответственность пользователя;
- недостаточный контроль со стороны разработчика — ответственность компании.
Основные изменения
| Как есть | Как будет |
|---|---|
| Нейросети работают без единого закона | Появляется базовый федеральный закон об ИИ |
| ИИ-контент часто неотличим от реального | Обязательная маркировка всего сгенерированного |
| Решения алгоритмов непрозрачны | Обязательное уведомление + право оспаривания |
| Любые сервисы доступны (при желании) | Фильтр через «доверенные модели» |
| Ответственность размыта | Четкое распределение между участниками |
| Иностранные модели доминируют | Приоритет национальных и локализованных решений |
Чего ждать от нового закона отрасли
На самом деле закон о регулировании ИИ назрел давно, и что в России, что в мире в ближайшее время ожидается целая пачка таких актов и проектов. Сейчас в этой сфере творится «цифровая вольница», которая создает слишком богатое поле для злоупотреблений. И это мы еще не говорим о рисках, которые исходят от самих быстро развивающихся больших языковых моделей.
Основной риск в том, что закон, который пытается решить сразу несколько задач отрасли, может вместе с водой выплеснуть и ребенка. И, с одной стороны, создаст более безопасное ИИ-пространство, где права человека будут лучше защищены. А с другой — чрезмерно его зарегулировать, из-за чего отечественные разработчики будут отставать от зарубежных из-за искусственно созданных барьеров. В то время как плодами иностранных ИИ и нейросетей будет пользоваться опаснее и сложнее.