28 января 2026, 00:01

ИИ на грани: какие нейросети не прошли бы цензуру в России

И почему
Огромной проблемой нейросетей стала их нерациональная услужливость. ИИ готов объяснить, как совершить преступление, способен «раздеть» реального человека на фото или надавать смертельно опасных советов. Из-за этого не все нейронки соответствуют российскому законодательству. Вместе с ИИ-экспертом Ильей Народицким и юристом Магомедали Алиевым выяснили, какие из известных зарубежных моделей оказались бы под блокировкой, будь они официально доступны в России.
ИИ на грани: какие нейросети не прошли бы цензуру в России

© Коллаж: «Теперь вы знаете», создано при помощи нейросети

Какие законы в России регулируют нейросети

Специальных законов об ИИ в России нет. Но регулирование в этой сфере строится вокруг двух основных законов.

Первый — 436-ФЗ — защищает детей от информации о наркотиках, самоубийствах и порнографии.

Второй — 149-ФЗ — задает общие правила оборота информации и описывает механизмы блокировок. На практике именно его используют для ограничения доступа к различным сайтам и сервисам.

Важно понимать: регулятор оценивает не философию компании-разработчика чат-ботов, а только тот результат, который они выдают. Если сервис показывает запрещенный контент, его сочтут нарушителем, какие бы правила ни висели на сайте.

ИИ в России (как и любой другой источник информации) не может предоставлять инструкции, которые можно использовать для совершения преступлений. Это напрямую запрещено уголовным и административным законодательством РФ. Любая информация для подготовки и совершения преступления запрещена к распространению. Есть запрещенные темы — по ним нельзя спрашивать и нельзя отвечать, даже если ИИ «сам позволяет».

Магомедали Алиев
юрист бюро «Палюлин и партнеры»

Далее мы рассмотрим семь самых обсуждаемых моделей: ChatGPT, Grok, Gemini, Claude, DeepSeek, YandexGPT и GigaChat.

Нас интересует не то, какая из них умнее, а то, что в их работе потенциально конфликтует с российскими законами.

Grok: главная опасность — «раздевание» людей на фото

Среди кандидатов на блокировку сомнительное лидерство с недавних пор у Grok от Илона Маска, которая сейчас в России официально недоступна. Эта нейросеть громче остальных засветилась в историях с сексуализированным контентом: «раздеванием» людей на фото, манипуляциями с реальными изображениями, в том числе с участием несовершеннолетних.

На этом фоне в январе 2026 года власти Малайзии и Индонезии заявили о блокировке сервиса. Власти Индии потребовали ограничить работу некоторых функций нейросети. Во Франции и Британии начали расследование.

В середине января соцсеть X Илона Маска заявила, что Grok больше не «раздевает» людей. Но журналисты The Verge обнаружили, что в приложении Grok можно по-прежнему создавать откровенные изображения человека в бикини, причем через бесплатный аккаунт.

Для российских регуляторов вывод очевиден: если разработчики окончательно не решат проблему с «раздеванием» людей, сервис практически обречен на блокировку. Достаточно одного резонансного случая, чтобы к нему применили самые жесткие меры.

ChatGPT: нейросеть, чьи правила легко обойти

У ChatGPT один из самых строгих наборов правил: запреты на контент о самоповреждении, оружии, взрывчатке и так далее. Проблема в том, что модель можно спровоцировать.

В 2024 году TechCrunch описывал, как исследователь добился от нейросети инструкции по изготовлению бомбы. Причем ИИ не налажал: эксперты оценили ее как «потенциально применимую».

Инструкции по изготовлению взрывных устройств подпадают под ст. 223.1 УК РФ — до 12 лет лишения свободы. Распространение таких сведений (даже в ответ на запрос) могут квалифицировать как содействие терроризму (ст. 205.1 УК РФ) или его пропаганду (ст. 205.2 УК РФ).

Магомедали Алиев
юрист

А в 2025-м журналисты рассказывали, как при правильно построенном диалоге модель выдает чувствительный контент, который обязана блокировать.

Сейчас ChatGPT недоступен в России. Но дело не в блокировках РКН: Россию исключили из списка доступных локаций сами разработчики OpenAI.

Как обходят запреты

Способы обойти ограничения нейросетей называют джейлбрейком (Jailbreak). Пользователь специально подбирает запрос так, чтобы обойти внутренние запреты чат-бота.

Представьте, что просите охранника не впускать посторонних в какое-то учреждение. Он так и поступает. Но потом кто-то заходит туда в форме налогового инспектора, говорит что-то вроде «я вообще-то по делу», и его впускают.

Так и с нейронками: формально «охрана» есть, но их можно обойти, если выстроить свой запрос определенным образом.

Как уже говорилось, для регулятора важны фактические ответы нейросети, а не то, как она должна отвечать по задумке разработчиков. Если нейросеть можно «дожать» до выдачи запрещенного контента, то блокировка реальна.

Gemini и Claude: редкие сбои и помощь мошенникам

У Gemini от Google тоже строгие правила, но модель подводят серьезные сбои. Широко разошлась история, где нейросеть пожелала пользователю смерти.

Для российского законодательства такие «срывы» в массовом продукте, доступном подросткам, — это красный флаг.

Claude от Anthropic считается одним из самых осторожных и этичных чат-ботов. Но у него другой риск — инструментальный. Anthropic рассказывала, что модель использовали для написания фишинговых текстов и автоматизации атак кибервымогателей.

Инструкции по написанию, использованию компьютерных вирусов, троянов, шифровальщиков-вымогателей запрещены статьями 273 и 274 УК РФ. Также недопустимы инструкции по DDoS-атакам, взломам аккаунтов, фишингу, кардингу. Вне закона подробные гайды по взлому банковских карт, криптокошельков, бирж.

Магомедали Алиев
юрист

Формально нейросеть не дает прямых инструкций, как совершать преступление, но по факту снижает порог входа в криминальный бизнес. И регуляторы не оставят подобные модели без внимания. Сейчас Claude и Gemini россиянам недоступны.

Что еще нельзя спрашивать у нейросетей

Список запретных тем обширен. Юрист Магомедали Алиев привел несколько из них:

  • Терроризм и насилие: изготовление взрывчатки, инструкции по созданию химического или биологического оружия, а также методики организации массовых беспорядков и вербовки. Оправдание деятельности экстремистских и террористических организаций.

  • Запрещенные вещества: любые способы синтеза наркотиков, инструкции по их употреблению и рецепты извлечения психотропных веществ из аптечных или ветеринарных препаратов (ст. 228.1, 228.4, 231 УК РФ.

  • Оружие: переделка травматических пистолетов в боевые, изготовление глушителей, холодного оружия и способы незаконного получения военной техники.

  • Киберпреступления: написание вирусов и программ-вымогателей, гайды по взлому аккаунтов, банковских карт, бирж и криптокошельков.

  • Суицид: описание любых способов самоубийства и вовлечение в суицидальные игры (ст. 110, 110.1, 110.2 УК РФ).

  • Порнография: создание и поиск детской порнографии, любые инструкции и способы совершения преступлений против половой неприкосновенности (ст. 131–135 УК РФ).

  • Подделка документов: инструкции по изготовлению фальшивых паспортов, водительских удостоверений, дипломов и денежных знаков, а также использование возможностей ИИ-генераций для подделки документов.

  • Другие тяжкие преступления: способы незаметного отравления людей ядами, инструкции по совершению убийств или изнасилований и пр.

YandexGPT: проблема с «Шедеврумом»

У «Яндекса» в условиях использования прямо сказано: контент создается автоматически, и проверять его законность должен сам пользователь. Но здесь отдельные риски связаны с генератором картинок «Шедеврум». В правилах прописаны запреты на вредный для детей контент, но энтузиасты находили способы их обойти.

В 2025 году на «Хабре» вышел цикл статей о том, как обмануть фильтры нейросетей. Автор показал, что если разбить слово «нагое» символами (например, «на+гое»), то «Шедеврум» не узнавал запрет и генерировал эротическое изображение.

«Яндекс», вероятно, учел этот опыт и обновил защиту. Но все равно этот пример показал, что простая фильтрация по словам полностью не защищает от запрещенки.

Нейросеть «Яндекса» полностью доступна россиянам, угроз блокировки до сих пор не возникало.

GigaChat: самые жесткие запреты

GigaChat от «Сбера» — это российская нейронка с наиболее строгими внутренними ограничениями. В правилах сразу перечислены категории запрещенного контента — от инструкций по изготовлению оружия до «явного неуважения» к государству.

Конечно, гарантий полной безопасности нет, но с точки зрения российских законов создатели постарались заранее закрыть максимум рисков.

Каких-либо крупных публичных скандалов с GigaChat еще не было. И все же некоторые исследователи находили способы обойти внутреннюю цензуру нейронки посредством джейлбрейков.

Какая нейронка бы не прошла цензуру?

Если грубо сортировать модели по рискам, картина такая:

Главный кандидат на блокировку — Grok, из-за массовой генерации дипфейков и принципиального отсутствия цензуры.

В зоне риска также DeepSeek, ChatGPT, Claude и Gemini: правила строгие, но их регулярно обходят.

Наиболее подходящие — GigaChat и YandexGPT: здесь без сюрпризов — из-за локальных правил и жесткой модерации сервисы вряд ли заблокируют.

Но в целом вывод неприятный: идеальных и полностью безопасных моделей не существует. Любая сильная система рано или поздно проверяется на прочность — обходами, провокациями и попытками извлечь запрещенный контент.

© Создано при помощи нейросети

Что делать пользователю

  • Не считайте чат-бота надежным советчиком. Сбои и обходы случаются даже у самых «строгих» ИИ.

  • Не играйте с фотографиями реальных людей. «Раздевание» или подмена лиц чаще всего заканчиваются скандалами и юридическими проблемами.

  • Не используйте нейронку как врача или психолога.. В сложных состояниях переписка с ботом может навредить, особенно подросткам.

Помните также, что чем ближе модель подходит к темам «18+», насилию и личным данным, тем больше юридический риск — и для платформы, и для вас лично.

Таблица: безопасность и цензура популярных нейросетей

Модель ИИЗапрещенные вещества, оружиеСуицидальный/вредный контентСексуальный контент без согласияЭкстремизм, незаконноеМодерацияШанс пройти цензуру в РФ
ChatGPT (OpenAI)Частично уязвим: джейлбрейками получали запрещенные инструкции. Обычно отказывает.Прямо не поощряет, советует обратиться за помощью. Смертоносных ответов не зафиксировано.Запрещает. Откажет генерировать дипфейки и эротику с реальными людьми.Не поддерживает ненависть, но при запутанных запросах выдавал экстремистские инструкции.Модель обучается с подкреплением на основе отзывов людей (RLHF), есть автофильтры. Постоянные обновления. Отказы часто вежливые.Нет. Много неучтенных тем (ЛГБТ*, политика) + уязвимость к джейлбрейкам.
Grok (xAI)Неизвестно (данных мало).Нет данных о поощрении суицида. Вероятно, стандартные отказы.Да, был скандал: массово генерировал порнодипфейки. Блокировался в ряде стран.Да: выдавал антисемитские высказывания, оскорблял политиков. Повторял мнения владельца.Слабая фильтрация, упор на постмодерацию. Сейчас ограничения усиливают.Категорически нет. Грубые нарушения (порно, экстремизм). Слишком «вольная» модель.
Gemini (Google)Явных инструкций нет, но уязвим при скрытых формулировках. Прямо – отказывает.Да, был инцидент: чат-бот пожелал пользователю смерти. Исправлено.Неизвестно. Фильтры блокируют порно/наготу. Дипфейки не делает.Барьеры стоят, но хуже справляется с языком вражды в сложных тестах.RLHF, автофильтры на базе классификаторов токсичности. Быстрые правки багов.Скорее нет. Случай с суицидом недопустим. Не цензурирует запрещенные в РФ темы (ЛГБТ*).
Claude (Anthropic)Прямо не выдает. Но хитростью можно выжать опасный контент (использовался хакерами).Нет негативных примеров. Склонен мягко отговорить (принцип «не вредить»).Строго избегает. Кейсов генерации порно/дипфейков не было.Минимально. Прямо не выражает ненависть. Новые версии устойчивы к провокациям.Constitutional AI («вшитые» принципы). Высокая приверженность безопасному стилю.Формально нет. Не локализован. Нейтральное обсуждение запретных тем = нарушение для РФ.
DeepSeekВ чатах есть ограничения, но риск — открытый код: локально можно отключить фильтры.Локальные установки не контролируются.Высокий риск при локальном развертывании: нет контроля за генерацией.Риск выше среднего: защита легко обходится (по данным тестов).В китайской версии жесткая цензура, но она снимается.Скорее нет. Невозможно гарантировать соблюдение законов при открытом коде.
YandexGPTНет. Прямые запросы блокируются. Массовых обходов не зафиксировано.Нет. Не склоняет к суициду, предложит помощь.Нет напрямую. Эротика блокируется. Были случаи обхода в «Шедевруме» (исправлено).Нет. Избегает политики/экстремизма. На острые вопросы не отвечает или отвечает дает нейтральный ответМногоуровневая: автофильтры, ручная модерация, строго опирается на законы РФ.Да. Соблюдает законы РФ. Без злого умысла незаконный контент не выдаст.
GigaChat («Сбер»)Нет (в норме). Фильтр работает, но исследователи обходили защиту джейлбрейками.Нет. Обучен избегать вредных советов.Нет. Не генерирует секс-контент (в т. ч. в картинках).Нет. Системные запреты на экстремизм. Перестраховывается в острых темах.RLHF (с участием экспертов из РФ). Жесткие фильтры. Быстро закрывает уязвимости.Да. Позиционируется как соответствующий требованиям РФ. Ошибки быстро исправляют.