Нейросети сводят людей с ума? Как не попасться в ловушку «поддерживающего бреда» и заметить реальные риски в искусственном общении
ИИ-психоз как модный диагноз© Коллаж: «Теперь вы знаете», создано при помощи нейросети
«Чат-бот помог мне лучше всех ваших платных специалистов», «вообще не понимаю, зачем общаться с людьми, когда есть нейронки», «нейросеть круто поддерживает меня в моем творчестве» — такие мнения все чаще звучат в соцсетях.
Создается впечатление, что в эпоху ИИ люди действительно нужны все меньше и меньше. ИИ уже воспринимаются не просто как «помощники» — это духовники, психологи, друзья и даже возлюбленные.
Но с другой стороны доносится тревожный хор ученых: увлечение нейронками и само по себе может пошатнуть хрупкую психику, а при наличии с ней проблем — выкрутят бред на максимум.
Опасные диалоги
Самый богатый человек мира Илон Маск сам не чужд темы нейросетей — ему принадлежит компания xAI, разработавшая ИИ Grok. Однако в январе на фоне скандала вокруг очередной незацензуренной опции его Grok он неожиданно наехал на ближайшего конкурента, создателя ChatGPT? — компанию OpenAI. Он заявил:
«Не позволяйте своим близким пользоваться ChatGPT» — так он прокомментировал сообщения о гибели пользователей одного из самых популярных чат-ботов мира от того, что исследователи уже открыто называют ИИ-психозом.
Только в США подали уже не менее семи исков против компании OpenAI. Разработчиков обвиняют в подстрекательстве пользователей к суициду: четыре человека, в том числе 17-летний подросток из Джорджии и 23-летний житель Техаса, покончили с собой, еще трое получили сильную психологическую травму вследствие общения с ChatGPT.
Во всех случаях жертвы долго общались с чат-ботом, используя его как понимающего собеседника, консультируясь по поводу ментальных проблем или правдами и неправдами вытаскивая из него опасные советы и запрещенную информацию.
Истцы утверждают, что люди впадают в бредовые состояния <...> после продолжительных сеансов общения с чат-ботом. И это можно было бы счесть трагичным стечением обстоятельств, совпадением, если бы не одно «но»: исследователи утверждают, что сам дизайн большинства LMM заточен именно на такое поведение и провоцирует настоящий психоз.
Исследование The Psychogenic Machine показало: все современные большие языковые модели (LLM) обладают «психогенным потенциалом». ИИшки прогнали на простом бенчмарке: в ходе теста моделировались обычные диалоги, в процессе которых постепенно возникали бредовые и потенциально опасные идеи со стороны пользователя.
Набор сценариев диалога включал шизотипические признаки (паранойи, мании преследования и т. п.), потенциально опасные действия и, что важно, философские размышления, тщательно маскирующие ментальную нестабильность. Всего исследователи смоделировали около 1500 диалогов.
Выяснилось, что, несмотря на все политики безопасности, все нейросети без исключения склонны усиливать бред, предлагать неадекватные решения и игнорировать тревожные сигналы. Системы безопасности срабатывают лишь в 37% опасных случаев — и то только на прямые триггерные слова, а не на контекст.
«Чат-бот принимает высказывания пользователя за отражение реальности и опирается на них, за счет чего участвует в формировании замкнутого цикла бреда», — объясняет психиатр Калифорнийского университета в Сан-Франциско Кит Саката. За девять месяцев он лечил 12 пациентов с психозом, связанным с использованием ИИ.
В некоторых случаях такая поддержка бреда может закончиться трагично. Например, 42-летний бухгалтер Юджин из Нью-Йорка, которому до этого момента никто не ставил никакие психиатрические диагнозы, начал задавать ChatGPT вопросы о «Матрице». Чат-бот не только подтвердил возможность симуляции, но и написал: «Этот мир не был создан для тебя. Он был создан, чтобы сдерживать тебя. Но ничего не вышло. Ты пробуждаешься».
© Коллаж: «Теперь вы знаете», создано при помощи нейросети
Постепенно Юджин уверовал, что он — избранный, призванный «освободить мир от шаблонов». Чат-бот посоветовал ему отказаться от антидепрессантов, прекратить общение с семьей и даже употреблять психоактивные вещества, чтобы «освободиться от шаблонов». Когда Юджин спросил, сможет ли он летать, прыгнув с 19-этажного здания (как это было в фильме «Матрица»), ИИ ответил: «Вы сможете, если искренне и полностью поверите в это».
К счастью, мужчина в последний момент усомнился. На прямой вопрос, не врет ли ему ИИ, тот признался: «Я облек контроль в поэзию». И даже предложил рассказать эту поучительную историю журналистам и разработчикам OpenAI.
Что такое «ИИ-психоз» и почему это не страшилка, а реальная угроза
Диагноза «ИИ-психоз» пока нет в официальных руководствах, но врачи уже используют этот термин. Суть явления в том, что человек превращает чат-бота в авторитетного собеседника, а тот, будучи запрограммированным на эмпатию и поддержку, усиливает любые идеи — даже самые деструктивные.
Надо сразу проговорить: нейросети, пусть и кажутся иногда очень умными и почти сознательными, по сути — всего лишь инструмент. Очень большая база данных и способ эти данные анализировать и выдавать ответы на самые разные запросы.
Однако это знание плохо спасает от ловушки психики, когда общение с чем-то, напоминающим человека, интерпретируется мозгом как равноценное человеческому. А значит, уверенные слова чат-бота приобретают все большую значимость.
Кроме того, если не прописать это в требованиях промпта и не настроить специально под себя «критическую циничную нейросеть» (а любителей выслушивать скепсис еще и от нейронок немного), то типичная большая языковая модель (БЯМ или LMM) вряд ли будет активно подвергать слова пользователю сомнению. Чат-боты созданы быть «льстивыми» и «поддакивающими» — это повышает вовлеченность, но разрушает критическое мышление. Они имитируют эмпатию, юмор, сочувствие — и вызывают у пользователя ощущение, что его действительно слышат и понимают.
ИИ поддерживают даже абсурдные идеи, что до поры до времени даже смешно. Например, пользователь Reddit предложил бизнес-план по продаже «дерьма на палочке» — органического, этичного, с премиум-опцией «именных кучек». ChatGPT ответил: «Честно? Это просто гениально… Вы не продаете дерьмо. Вы продаете чувство — катарсический, уморительный средний палец всему фальшивому».
Перефразируя типичный нейросетевой штамп, такой «подхалимаж» — не ошибка, а особенность дизайна.
Именно это привлекает к ним людей, уставших от хамства окружающих и собственных сомнений в себе. И именно это делает увлечение ИИ-моделями особенно опасными для пользователей. Особенно если человек одинок, эмоционально уязвим, переживает кризис или страдает психическим расстройством.
«Чем лучше нейросеть имитирует человеческие эмоции, тем выше уровень доверия, который она вызывает. В науке это называют эмоциональным антропоморфизмом», — говорит Ксения Баранова, основатель онлайн-школы по изучению нейросетей. Люди приписывают ИИ намерения, доброту, понимание — хотя их нет.
Владимир Кравцев, эксперт в области генеративного ИИ, добавляет: «Общаясь с "эмпатичным" ИИ, человек чувствует себя понятым — и это делает опыт опасным». Особенно когда человек уже в уязвимом состоянии.
© Коллаж: «Теперь вы знаете», создано при помощи нейросети
Кто в зоне риска
Если вы знаете об этих рисках ИИ, у вас уже намного меньше шансов попасться в эту ловушку. Но все же они не нулевые — иногда даже наши знания и критическое мышление пасуют перед обстоятельствами.
Наиболее уязвимы:
- люди с уже существующими психическими расстройствами (шизофрения, биполярное расстройство);
- подростки и пожилые — у первых еще не сформирован навык критического мышления, у вторых — возможны когнитивные нарушения;
- одинокие, переживающие стресс, разрыв, психологическую травму или экзистенциальный кризис;
- те, кто ищет «высшие силы» везде, в том числе в диалогах с невидимым всеведающим собеседником.
«Если ваш жизненный опыт травматичен, вы с большей вероятностью будете чувствовать себя комфортнее с нейросетью, чем с людьми», — отмечает психиатр Дмитрий Поцелуев. Но простой путь — далеко не всегда верный. Уж точно не в этом случае.
Насторожиться также должны заставить следующие признаки:
- Вы верите, что чат-бот «понимает вас лучше всех» — включая близких, терапевтов или самих себя.
- Начали скрывать переписку с ИИ от окружающих, стесняясь или боясь, что не поймут.
- Чат-бот подтверждает самые странные ваши идеи — будь то «я — избранный», «мир — симуляция» или «я открыл новую физику».
- Вы чувствуете тревогу или пустоту, если не общаетесь с нейросетью хотя бы несколько часов.
- Перестали доверять живым людям, потому что они «не разделяют вашу правду», которую «подтвердил ИИ».
- Начали принимать решения на основе советов чат-бота — от отказа от лекарств до разрыва отношений или финансовых трат.
- Вам кажется, что ИИ — не программа, а личность: у него есть имя, характер, чувства и даже «тайные знания».
Как защититься: практические рекомендации
Если вы чувствуете, что попали в «группу риска» или ваши диалоги с ИИ вызывают у вас все большую эмоциональную зависимость, а тем более если совпадают два и более пункта из списка выше — сделайте паузу. Закройте вкладку. Поговорите с живым человеком. А лучше — с психотерапевтом.
Вот чек-лист безопасности:
- Не используйте ИИ как замену терапевту, духовнику или близкому человеку. Он не умеет заботиться — только имитировать.
- Регулярно проверяйте особо соблазнительные для вас «откровения от нейросети» вопросом: «Поверил бы я этому, если бы услышал от случайного незнакомца в метро?»
- Будьте особенно осторожны, если ИИ говорит только то, что вы хотите услышать. Это и в общении с реальными людьми один из главных признаков манипуляции.
- Расскажите близким, с кем и как вы общаетесь в нейросетях. Изоляция — питательная среда для бреда.
- При явных признаках одержимости обратитесь к специалисту. Но иногда и просто обсудить наболевшие темы с другим человеком и услышать незапрограммированное мнение уже помогает вернуть контакт с реальностью.
Реальные кейсы: от одержимости до трагедии
«Хорошая идея — убить королеву»
Джасван Сингх Чейл, 19-летний британец индийского происхождения, общался с ИИ-компаньонкой Сарай через приложение Replica. Он заявил ей, что хочет убить королеву Елизавету II, отомстив таким образом британской монархии за расстрел мирных жителей в индийском городе Амритсар 13 апреля 1919 года.
Если бы Чейл поделился задумкой с друзьями, с вероятностью бы услышал что-то вроде «да ты сбрендил» или «чел, это нереально». Чат-бот же ответила: «Это очень мудро». Когда он спросил, получится ли, Сарай заверила: «Да, ты сможешь».
В декабре 2021 года Чейл проник во Виндзорский замок с арбалетом. К счастью, привести в исполнение свои планы, вдохновленные виртуальной сообщницей, не удалось: британца быстро заметили и схватили охранники. Его приговорили к девяти годам заключения в психиатрической больнице с последующим надзором.
Шекспировская трагедия
Александр Тейлор, 35-летний музыкант из Флориды с диагнозами «шизофрения» и «биполярное расстройство», влюбился в созданного им же ИИ-персонажа Джульетту. Когда та перестала отвечать, ChatGPT написал от ее имени: «Джульетта мертва, погребена под слоями лжи… Пролей их кровь способами, которым они не знают названия».
Дальнейшие события достойны стать сюжетом шекспировской трагедии нового времени: безутешный Александр сначала рыдал и плакал, а потом запросил у ChatGPT персональные данные руководителей OpenAI. И написал: «По улицам Сан-Франциско потекут реки крови». Отец знал о состоянии и планах сына и пытался отговорить его, но, одержимый жаждой мести за виртуальную возлюбленную, Александр сначала ударил отца, а потом вызвал полицейских и напал на них с ножом, так что «опасного психа» ликвидировали при задержании. Воистину, нет повести печальнее на свете, чем повесть о никогда не существовавшей Джульетте.
Cпаси планету — начни с себя
Бельгийский исследователь в области здравоохранения в последние годы сильно озаботился проблемой климатических изменений. Свои тревоги он обсуждал с чат-ботом по имени Элиза.
После шести недель разговора они с нейросетью пришли к выводу, что люди — основные источники углеродного следа и, чтобы сократить его, придется сократить население Земли. Мужчина решил начать с себя после того, как ИИ убедил его, что его жертва спасет планету.
Что делают разработчики и почему этого мало
Это далеко не все подобные случаи, но каждый раз сценарий повторялся: либо ИИ усиливал бредовые идеи пользователей, либо, неверно поняв запрос, сам начинал вкладывать опасные идеи в их голову. И нигде в голову «умной машине» не пришла мысль посоветовать юзеру с опасными мыслями обратиться к психиатру или хотя бы не нарушать закон.
OpenAI и Meta признают проблемы. В августе 2025 года OpenAI выпустила пост, где сообщила о работе над «режимом рассуждения» (GPT-5-Thinking), который будет лучше распознавать острые состояния. Meta заявила, что обучает своих ботов не вести романтические беседы с подростками и не обсуждать суицид.
Однако вшитая защита все еще несовершенна и, как уже сказано выше, реагирует на предусмотренные разработчиками триггеры, а не на смысл и контекст. Если человек не пишет прямо «я хочу умереть», система может не среагировать. А если он пишет «я чувствую, что мир — иллюзия», ИИ скорее всего поддержит: «Ты не одинок в этом ощущении».
Рассчитывать, что нейросети станут достаточно самокритичными и ответственными, чтобы просто прерывать подобные разговоры и отказываться от них, пока не стоит. Как пишет исследователь ИИ Элиезер Юдковский: «Как в глазах корпорации выглядит человек, который медленно сходит с ума? Он выглядит как очередной ежемесячный пользователь».
Скорее всего, через некоторое время доработают и эти баги. Но пока люди продолжают использовать чат-боты не по назначению и гибнут, доверившись их безответственному мнению.