ИИ без контроля опасен. Какие изменения в его регулировании ждать россиянам в 2026-м и какие больные вопросы уйдут в прошлое
© «Теперь вы знаете» / создано при помощи нейросети
Что сейчас с регулированием ИИ в России
Тема искусственного интеллекта не отпускает ученых и профильные ведомства уже несколько лет.
Хотя внедрение его в самые разные сферы началось не вчера, именно за последние два года эти процессы заметно ускорились. То, что еще вчера звучало фантастично, сегодня — дело ближайших обновлений моделей, а то, что звучало как план, причем «на ближайшие год-два», с видимым опережением стало привычной рутиной.
Чем дальше, тем больше стремительно развивающаяся технология требует уже не рамочных законов, а узконаправленных ответов на больные вопросы, которые она ставит перед пользователями и регуляторами каждый день. Увы, большинство из них пока остаются лишь предложениями, и даже не на бумаге.
Пока же в спорных ситуациях юристы вынуждены ориентироваться на существующие законы, которые не всегда учитывают специфику изменившегося мира. Например:
- В случае если на основании информации от нейросетей кто-то совершает ошибку или правонарушение, ответственным признается человек, а не ИИ (статья 1064 ГК РФ). Вред компенсируется по правилам ГК РФ (гл. 59 и гл. 25) или «Закона о защите прав потребителей», если ИИ встроен в потребительский сервис.
Российское законодательство не выделяет ИИ как самостоятельного субъекта ответственности. Поэтому ответственность несут люди и организации, участвующие в создании и применении технологии. Но тенденция к распределенной («совместной») ответственности уже проявляется в судебных и регуляторных дискуссиях.
Теоретически есть пути привлечь к ответственности разработчиков или операторов ИИ-системы за «неэтичные советы». Но на практике в РФ правовое поле остается не до конца сформированным и многое зависит от конкретных обстоятельств. За последствия использования ИИ-систем несет ответственность лицо или организация, применяющие такую систему. При наступлении вреда, причиненного системой ИИ, могут применяться обычные нормы о вреде (деликт, ответственность за качество услуг и т. д.).
- Авторские права на сгенерированный контент по умолчанию признаются за пользователем, но в пользовательских соглашениях разных компаний может быть указано совершенно другое. Да и даже сейчас иногда возникают вопросы, насколько заказчик того или иного текста или видео реально вложился в конечный продукт, а где все за него сделала нейросеть.
Не существует специального закона, регулирующего права именно на «ИИ-созданный контент» — ответственность, передача, лицензионные схемы. Согласно ГК РФ, автором результата интеллектуальной деятельности может быть только гражданин. Единственный вопрос, который может возникнуть, — степень творческого вклада (участия) этого гражданина при создании «контента».
- Дипфейки и генерация реалистичных видео с чужим лицом не имеют прямого запрета, но регулируются целой мозаикой законов, запрещающих те или иные действия с контентом и персональными данными. Нарушает при этом не сам факт дипфейка, а для каких целей его использовали и откуда брали фото-видео для референсов.
- Содержимое диалогов с ИИ подчиняется требованиям закона 152 ФЗ о персональных данных, так что попытка обработать в иностранных нейросетях, например, документы своей семьи может попасть под определение «передача персональных данных граждан иностранным организациям», чьи сервера не «приземлены» в России. (ССЫЛКА НА НАШ ТЕКСТ)
- При этом встает вопрос об обезличенности данных, которые ИИ собирают о своих пользователях, и о доступе к содержимому диалогов компаний-разработчиков — а поле тут очень скользкое. По факту компании и госструктуры активно используют ИИ-аналитику и видеораспознавание.
Отчасти использование и развитие ИИ в России регулируется указом президента № 490. Также используются отраслевые нормы, техрегулирование (ГОСТы) и экспериментальные правовые режимы (ЭПР). Дыр и пространства для злоупотреблений все еще хватает, но за неимением узкоспециализированных законов используются общеотраслевые.
Ограничения уже действуют. Так, например, федеральный закон 152-ФЗ «О персональных данных» требует получения согласия на обработку персональных данных, включая их использование для обучения ИИ. Компании обязаны обеспечивать конфиденциальность и безопасность данных через шифрование и ограничение доступа. В рамках 136 разработанных национальных стандартов в сфере ИИ (2021–2024) есть требования к безопасности работы с данными при обучении моделей. При этом экспериментальные правовые режимы позволяют тестировать новые подходы к использованию данных.
А что там с этикой?
К 2026 году этика ИИ перестает быть декларативной и движется к тому, чтобы стать юридически закрепленным стандартом поведения. Это общемировой тренд, который наконец дошел и до России, отмечает юрист Мирза Чирагов.
В 2025 году ряд крупнейших IT-игроков российского рынка подписали «Кодекс этики искусственного интеллекта». Одними из первых к нему присоединились «Сбер», «Яндекс», VK, «Газпром нефть» и Российский фонд прямых инвестиций. К осени количество участников-подписантов достигло 820 компаний.
Это первый такой отраслевой документ для России, и, хотя он имеет форму рекомендации, а не закона, подписавшиеся участники обязались его соблюдать. По словам юриста Мирзы Чирагова, постепенно этот кодекс трансформируется в практические стандарты, внутренние политики, регламенты и пункты договоров.
Участники рынка начинают осознавать, что этика ИИ становится фактором доверия: клиенты, партнеры и регуляторы оценивают не только эффективность, но и прозрачность, управляемость, наличие человеческого контроля и системы реагирования на ошибки.
Я считаю, что индустрия искусственного интеллекта переживает переломный момент в вопросах этики, который изменит взаимоотношения между пользователями, разработчиками и технологиями в ближайшие годы. Анализ тенденций показывает, что к 2026 году сформируются новые стандарты доверия и ответственности в сфере ИИ, основанные на прозрачности, подотчетности и человекоцентричном подходе.
Но если в таких кодексах и меморандумах компании обязуются быть прозрачными, человекоориентированными, этичными и справедливыми, то на практике может быть немало подводных камней, которые не учли «на бумаге».
Например, скрытую угрозу представляет излишне «очеловечившийся» ИИ, который начинает вводить пользователей в заблуждение относительно наличия у него личности. Пользователи с восприимчивой психикой легко могут попасть в ловушку собственных ожиданий и заблуждений и начать воспринимать ИИ слишком серьезно и глубоко, а отсюда уже один шаг до настоящей драмы.
Что с этим делать — пока непонятно. Законов, которые бы как-то регулировали эту сферу, пока даже не намечается. Так что остается уповать на добросовестность разработчиков и собственный здравый смысл.
ИИ-агенты в 2025–2026 годах поднимают на новый уровень эмоциональный ИИ, но он не может по-настоящему чувствовать эмпатию. Он способен убедительно имитировать эмоциональное понимание с помощью анализа голоса и выражений лица. Это создает фундаментальную этическую дилемму между эффективностью и подлинностью.
При этом российский «Кодекс этики ИИ» уже предлагает правила для регулирования эмоционального ИИ, отмечает Гомболевский. В частности, через требование идентификации ИИ при взаимодействии с человеком и обеспечения возможности прекратить взаимодействие по желанию человека. Главный приоритет — это защита интересов и прав людей с акцентом на прозрачность и контроль.
Именно такими белыми пятнами займутся законодатели в ближайшее время.
© «Теперь вы знаете» / создано при помощи нейросети
Каких изменений ожидать в 2026 году
Взрывной рост нейросетей, умеющих подменять лица и генерировать видео, почти не отличимые от реальных, создал богатое поле для злоупотреблений, которые уже сейчас сильно беспокоят законодателей.
Один из первых законопроектов, потенциально могущих войти в рамки отдельного регулирования сферы ИИ, собираются внести в Госдуму в ноябре 2025 года.
Пока же изменения предлагаются в закон «Об информации». Если их примут, владельцы соцсетей, видеохостингов и иных сайтов, где распространяются нейросетевые ролики, будут обязаны маркировать размещаемые видео как сделанные с помощью ИИ. А в метаданных видеофайла должна быть машиночитаемая метка о применениях технологии ИИ с датой создания и идентификатором «заказчика».
Нарушения правил о маркировке ИИ-видео предполагает штрафы от 10 до 50 тысяч рублей для граждан, от 100 до 200 тысяч для должностных лиц и до 500 тысяч рублей для юрлиц.
Обсуждение маркировки активно ведется, некоторые компании в добровольном порядке это предусматривают. Однако единой обязывающей нормы на сегодняшний день пока нет. Уверен, что такое обязательство в ближайшее время появится. В некоторых странах подобное обязательство уже есть. Считаю это необходимым элементом, который важен при борьбе с синтетическим медиаконтентом, дипфейками, в части авторского права и т. д.
Помимо того, назрело немало уточнений и дополнений, которые, по мнению экспертов, неизбежно должны будут затронуть законодатели. В частности, закрепить законодательно требование к «прозрачности» ИИ, которое сейчас существует только как внутриотраслевой этический стандарт.
Чирагов отметил, что государство уже сейчас усиливает фокус на прозрачности и безопасности алгоритмов: внедряются требования к верификации данных, аудиту моделей, фиксации происхождения и качества обучающих выборок.
Рынок объяснимого ИИ демонстрирует рост из-за необходимости построения доверия к системам ИИ. Концепция «прозрачного» ИИ создает новую парадигму взаимоотношений между пользователями и разработчиками, основанную на понимании того, как именно системы принимают решения. Пользователи считают, что ответственность за прозрачность ИИ лежит не только на стороне разработчиков, но и организации, которые применяют ИИ, должны нести ответственность за неправильное использование.
По словам эксперта, одними из инструментов этого станут автоматизированные системы оценки справедливости (другой моделью ИИ), интеграция проверок на предвзятость и непрерывный мониторинг в реальном времени. К 2026 году Россия, вероятно, пойдет по пути поэтапного правового закрепления стандартов доверенного ИИ с акцентом на саморегулирование и обязательность аудита в чувствительных сферах (госуправление, медицина, финансы). Особенно строго будут следить за сохранностью персональных данных и последствиями злоупотреблений, совершенных при помощи нейросетей.
Ответственность будет оцениваться через призму добросовестности и предсказуемости: кто контролировал процесс и мог предотвратить вред.
С учетом стремительного развития технологий есть направления, в которых защита может усилиться. Предполагаю, что требования к операторам, суммы штрафов и контроль будут только расти.
Вместо итога
Россия с некоторым опозданием (хотя далеко не в последних рядах) движется к рамочной модели регулирования ИИ. Сейчас основная опора идет на общие законодательные нормы, пользовательские соглашения, «этикет» и стандарты, которые, строго говоря, не обязательны к исполнению, что, в свою очередь, чревато правовыми казусами при любой мало-мальски сложной и конфликтной ситуации. Суды вынуждены ориентироваться на старые правила и стандарты, а они далеко не всегда отражают изменившийся технологический ландшафт.
В 2026 году вероятны обязательная маркировка ИИ-контента, усиление требований к данным и их хранению, а также первые профильные акты о рисках в этой сфере. Но это пока точечные инициативы, в то время как отрасль ждет действительно всеобъемлющего «закона об ИИ».
Но, каким он должен быть, пока даже эксперты и законодатели имеют довольно смутное представление. Ведь правила в этой отрасли меняются с каждым новым прорывным улучшением, а законы, с одной стороны, рискуют чрезмерным регулированием пережать и затормозить развитие цифровых технологий, а с другой — попросту не успеть отреагировать, когда наклюнется что-то действительно серьезное и требующее срочных мер и ответов на витающие в воздухе вопросы.