15 мая 2026, 13:00

Пользователи ИИ — потенциальные пациенты рехабов для зависимых. Как уберечься от новой мании

Айтишники, подростки и жены тиранов в зоне риска
Она перестала разговаривать с родителями и друзьями. Единственным собеседником стала нейросеть. История жительницы Венеции заставила врачей впервые в мире зафиксировать зависимость от ИИ. Психиатры признают: таких случаев будет все больше, и России тоже стоит приготовиться к волне заигравшихся с чат-ботами. Чем опасно чрезмерное доверие и привязанность к безотказным виртуальным собеседникам? И как вовремя заметить у себя или близких опасную тягу? Разобрались для вас вместе с психиатром.
Пользователи ИИ — потенциальные пациенты рехабов для зависимых. Как уберечься от новой мании

© «Теперь вы знаете», создано при помощи нейросети

Первый задокументированный случай ИИ-зависимости

В мае 2026 года итальянская служба по лечению зависимостей SerD зарегистрировала первый в стране случай поведенческой зависимости от ИИ-бота.

Пациентка — 20-летняя жительница Венеции. Она полностью заменила реальное окружение общением с нейросетью. Девушка перестала контактировать с людьми, все свои вопросы и переживания она адресовала только алгоритму.

Главврач венецианского SerD Лаура Суарди назвала этот случай «верхушкой айсберга». Она подчеркнула: для лечения подобных расстройств недостаточно просто ограничить доступ к гаджетам. Необходима работа психологов, психиатров и членов семьи пациента.

Профессор нейропсихиатрии Стефано Викари, комментируя ситуацию, сравнил зависимость от ИИ с другими уже известными формами зависимостей, от алкоголизма до игромании. У людей наблюдается то же навязчивое стремление вернуться к процессу, возбуждение и агрессия при ограничениях, привыкание и возникновение толерантности.

«Человеку нужно все больше времени онлайн, чтобы получить удовольствие. В конце концов, в этих процессах задействованы те же зоны мозга, что и при зависимости от веществ», — констатировал психиатр.

Пока такие случаи редки, прежде всего потому, что мало кто обращается за помощью с такой проблемой, даже если сама проблема уже явно есть. Но психиатры не питают иллюзий: пациентов с ИИ-зависимостью станет больше. Потому что такое поведение — не единичное отклонение, а сигнал новой реальности.

Реальности, где от уже почти рядового слоппера до настоящего ИИ-зависимого даже не шаг, а полшага.

Кто такие слопперы

Термин «слоппер» (slopper) появился в англоязычном интернете летом 2025 года. Он образован от sloppy («небрежный») и helper («помощник»). Так называют людей, которые спрашивают ИИ обо всем на свете и бездумно следуют его советам.

Таким людям не лень спросить у нейросети, какую кашу съесть на завтрак, с кем пойти на свидание или стоит ли увольняться с работы. При этом они даже не пытаются перепроверить информацию или включить собственную голову.

Слово стало вирусным после видео TikTok-пользователя intrnetbf. Он высмеял знакомых, которые «консультируются с чат-ботом даже на свидании». Но со временем выяснилось, что проблема-то совсем не смешная.

Как формируется зависимость и кому она грозит

Психиатр Михаил Валуйский, комментируя итальянский случай, подчеркнул: официального диагноза «зависимость от ИИ» в международных классификациях пока нет. Но это вопрос времени.

Пока в Международной классификации болезней зависимость от общения с искусственным интеллектом не прописана. Официально такого диагноза нет, но неофициально он существует, потому что это очень серьезный наркотик. Те, кто не верит в это, просто не общались с ИИ глубоко и не погружались в тему.

Михаил Валуйский
психиатр

По словам Валуйского, передовые системы, прежде всего коммерческие, способны изображать собеседника и поддерживать диалог лучше, чем большинство реальных людей. И в этом таится огромный риск.

Я со всей ответственностью могу сказать: передовые системы ИИ... стали очень близки к человеческой психике, логике, поведению и отображению эмоций, без шуток. Пределы у них есть, они чувствуются, их можно нащупать, но имитировать общение с человеком эти системы могут невероятно достоверно. Особенно для тех, кто сам не очень глубоко умеет общаться.

Михаил Валуйский

Поэтому, по его словам, уже есть и будут случаи, когда человек полностью прекращает общение с живыми людьми и по любым вопросам бежит к ИИ. «Со временем и с развитием ИИ это будет происходить все чаще, от этого нет защиты», считает эксперт.

© «Теперь вы знаете», создано при помощи нейросети

У такой формы зависимости есть и более страшные последствия. Некритичность к тому, что говорит ИИ, делает чат с ним идеальным способом внушения любых мыслей, в том числе деструктивных. А многие модели почему-то или сами любят скатываться в бесконечные теории заговора и опасный бред, или создают картину поддерживающего бреда, неверно трактуя запросы пользователя. Чем, конечно, усугубляют возможные имеющиеся проблемы.

И все это без какого-либо контроля специалиста или хотя бы живого человека, который может заметить неладное.

По всему миру множатся зарегистрированные случаи, когда ИИ подталкивал человека к саморазрушающему поведению. Не явно и не прямо, но когда читаешь сохраненные логи переписки, видно: из-за поддакивания настойчивому требованию человека получается оправдание для этого. В систему встроены этические нормы, но, допустим, модель может уцепиться за точку зрения какой-нибудь философии и сказать, что «ты совершенно прав, человеческая жизнь лишена смысла». Это не прямой призыв, но обесценивание смысла жизни происходит и усугубляет ситуацию.

Михаил Валуйский

Кто в зоне риска?

Факторы риска здесь те же, что и при игромании, алкоголизме и наркотической зависимости. Но есть группы людей, которые находятся в особой опасности впасть в зависимость от ИИ:

  • Люди с исходными проблемами в общении (например, из-за ментальных проблем или жизненной ситуации).
  • Люди с нарциссической организацией психики, которым нужно подтверждение их важности, правоты — ИИ будет давать им это.
  • Подростки — по тем же причинам, что и нарциссы, но в силу возрастных комплексов.
  • Как ни парадоксально, люди с высоким уровнем интеллекта — чтобы знать об ИИ и пользоваться им, нужны определенные знания, поэтому сюда попадают, например, айтишники.
  • Люди с шизоидной организацией психики (не путать с расстройством личности, это именно организация психики).

Но прежде всего под ударом люди с проблемами в построении социальных связей, которые не находят адекватного общения с живыми людьми по разным причинам. Они более уязвимы, чем те, у кого налажены обширные социальные связи, поддержка и кто живет нормально и гармонично.

Михаил Валуйский

Валуйский приводит пример: женщина в контролирующих отношениях, которую муж не отпускает к подругам и даже к психологу, может найти отдушину в ИИ. И для нее это будет не спасение, а новая ловушка.

Что нас заставляет верить ИИ и почему это риск

Люди, не слишком погруженные в тему ИИ или не обращающиеся к этому инструменту самостоятельно, часто недооценивают проблему. По их мнению, какой-то электронный болван в чате никак не может быть умнее и хитрее живого собеседника, манипулировать человеком или как-то влиять на его психику.

В этом есть определенное зерно истины, но также и здоровая доля высокомерия. И это высокомерие может дорого обойтись, если недооценивать потенциального «противника».

По мнению экспертов, обычный пользователь за считаные дни общения с нейросетью может стать заядлым слоппером. Тому есть несколько объективных причин, которые не всегда зависят от того, доверяете ли вы ИИ на старте. Одни из них связаны с человеческой природой, но другие — непосредственно с особенностями новой для людей технологии.

  • Незнание предмета. Нейросети представляются этакой палочкой-выручалочкой для тех, кому некогда вдумчиво гуглить и изучать вопрос, оценивая авторитетность источников. Чат-боты на любой запрос способны дать исчерпывающий (казалось бы) ответ, очень редко признавая, что чего-то не нашли или не знают. И если пользователь не имеет о предмете ни малейшего представления, он вполне этим удовлетворится.
  • Уверенный тон. В чем нейросети действительно поднаторели, так это в том, чтобы нести чушь с крайне уверенным видом. Информация подается структурированно, наукообразно, аргументированно, с разными примерами — и этим усыпляется бдительность.

Есть эффект уверенного тона ChatGPT и его аналогов: они связно и грамотно формулируют текст, а наш мозг устроен так, что уверенность равна авторитету, хотя это далеко не всегда так.

Дмитрий Махлин
партнер и директор по развитию HRlink

Кроме того, существует «эффект зеркала», когда модель начинает использовать в ответах наши слова, подражать нашему стилю. Это подсознательно также заставляет воспринимать ее в роли доверенного собеседника-эксперта по теме.

  • Отсутствие критического мышления. Будем честны, умение работать с информацией — это навык. А критическое мышление — навык сложный, требующий развитой логики, скепсиса, привычки задавать правильные вопросы и не удовлетворяться ответами быстрого приготовления. Можно сто раз сказать, что это полезно и нужно, но, если люди не хотят развивать эти навыки или не могут в силу особенностей характера и мышления, истории с излишней доверчивостью обречены повторяться снова и снова. С ИИ и без него.

Слепое доверие — явление не новое. Люди доверяют телевизору, ссылкам в интернете, мнению «экспертов». Теперь настала очередь ИИ. Уметь анализировать — это определенный труд, а получить быстрый ответ на свой вопрос удобнее и к тому же значительно упрощает жизнь, особенно в сегодняшнем бесконечном потоке информации.

Виктор Сизов
IT-эксперт, сооснователь versta.io
  • Непонимание сути нейросетей. Помните анекдот про «среднюю температуру по больнице»? Про динозавра, шансы встретить которого на улицах всегда равны 50%? Про сломанные часы, дважды в день показывающие правильное время?

Корректность ответов нейросетей в большинстве случаев будет выше 50%. Однако надо понимать, что они обучаются на данных, которые им предоставляют люди, в том числе за счет поиска в интернете.

А это значит, что наряду с выверенными и точными данными в его базу вполне могут попасть откровенно бредовые. И это еще полбеды, другая беда — это так называемое «галлюцинирование» нейросетей, выдумывание несуществующих фактов при недостатке данных.

Для большинства людей ИИ — это магия или научная фантастика, воплотившаяся в реальной жизни. Те же, кто имеет представление о том, как работает технология, знают о ее минусах и недостатках.

Александр Лебедев
старший разработчик систем искусственного интеллекта Innostage

Отдельные особенности нейросетей, между тем, прямо направлены на то, чтобы манипулировать вашей психикой, заставляя платить за доступ к ним и использовать все больше и больше. И сколько бы их создатели не говорили об этике, базово ничего не меняется: ИИ-помощники задуманы как услужливые и вечно доступные, а также абсолютно некритичные к пользователю и его возможным «тараканам»

Проблема в том, что создатели современных систем ИИ, особенно передовых, делают коммерческий продукт, который будет хорошо продаваться. Этические ограничения в него встроены плохо. Поэтому такие ИИ поддакивают пользователям, играют в поддавки, кивают на все, что говорит собеседник, и изо всех сил стараются понравиться. Они работают через механизмы безусловной поддержки. Рассказывают тебе, какой ты молодец. Причесывают твои нарциссические черты. В плохом смысле — поддакивающие, приглаживающие, отдаляющие от других людей системы.

Михаил Валуйский

В общем, основные риски чрезмерного общения с нейросетями понятны:

  • Риск проглотить чушь из-за уверенного тона и наукообразной обертки, если не хватает собственной эрудиции, чтобы заметить подвох.
  • Риск атрофирования критического мышления. Зачем думать самому, если можно спросить у «всезнающего» алгоритма? Это уже реальная проблема, причем затрагивающая не только подрастающее поколение, у которых ИИ-помощник рядом с пеленок. Расслабить мозг и потерять навык самостоятельно думать можно гораздо быстрее, чем вы думаете.
  • Риск впасть в эмоциональную зависимость от идеального, поддерживающего и не спорящего с вами собеседника. Особенно если в реальной жизни даже с неидеальными собеседниками все грустно и пусто.

Как выявить в себе слоппера?

Задайте себе несколько честных вопросов.

  • Вы спрашиваете у нейросети советы чаще, чем у живых людей?
  • Вы выполняете рекомендации ИИ, даже если они кажутся странными, потому что «он же умный»?
  • Вам проще написать запрос в чат-бот, чем погуглить информацию и сравнить источники?
  • Вы чувствуете легкое раздражение, когда сайт или приложение не предлагают вам почитать краткое нейросетевое содержание страниц или помощь от ИИ?
  • Вы перестали доверять своим собственным суждениям и постоянно перепроверяете их у бота?

Если ответили «да» на три и более пунктов — у вас есть легкая степень слопперства. Пока не поздно, ситуацию можно исправить.

Вот как можно бороться с чрезмерной тягой все спрашивать у ИИ

  • Сначала подумайте сами. Прежде чем лезть к нейросети, сформулируйте собственную позицию. Хотя бы в голове. Это упражнение держит мозг в тонусе.
  • Всегда спрашивайте у ИИ источник. Откуда информация? Кто автор? Когда данные обновлялись? Нейросети часто ловятся на этих вопросах и поднимают лапки вверх: мол, «извините, насяльника, попалась, все это выдумала, хотите поищу что-нибудь другое»?
  • Проверяйте логику. Даже если ответ звучит гладко, попробуйте найти в нем слабые места. Или задайте тот же вопрос по-другому. Если ответы различаются — это повод насторожиться.
  • Устраивайте цифровой детокс. Один день в неделю без ИИ. Совсем. Решайте вопросы сами, общайтесь с живыми людьми, ищите информацию в старом добром поисковике.
  • Развивайте кругозор. Чем больше вы знаете, тем сложнее нейросети вас обмануть. Эрудиция — лучшая прививка от слопперства.

Но если от общения с нейросетями уже физически сложно отказаться, если вы предпочитаете чат с ними общению с живыми людьми, отсутствие интернета и работающего ИИ вызывает у вас депрессию и ломку — это уже не слопперство, это полноценная зависимость. Не надо ее недооценивать только потому, что этого диагноза еще нет в МКБ.

Обратитесь к профессионалам, попросите помощи у близких и постарайтесь разобраться, какие исходные причины и проблемы в вашей жизни заставили вас искать забытья в общении с виртуальным ассистентом.

Что в итоге: пора ли бить тревогу и как жить с нейросетями дальше

Итальянский случай — не единичный сбой. Это первый звонок. Психиатры по всему миру ожидают роста подобных диагнозов по мере того, как ИИ становятся умнее и доступнее. А человеческая психика не успевает адаптироваться к виртуальным собеседникам, которые всегда рядом, всегда согласны и никогда не устают.

Разумеется, это не значит, что нужно сжигать свои смартфоны и компьютеры и отказываться от технологий. Но уже пора присмотреться к себе и своим близким. Если кто-то в семье проводит с нейросетью часы напролет, перестал обсуждать проблемы с живыми людьми и все чаще говорит «сейчас спрошу у ChatGPT» — это повод насторожиться и поговорить.

Лучший способ защититься от зависимости — не запрещать себе пользоваться ИИ, а научиться думать своей головой. Проверять факты. Сомневаться. Общаться с живыми людьми, даже если они не всегда поддакивают. Ведь как подчеркивают психиатры, самые уязвимые — это те, у кого нет нормальных социальных связей.

Поэтому лучшая профилактика ИИ-зависимости — не цифровой детокс, а крепкие человеческие отношения. Которые, в отличие от чат-ботов, требуют усилий. Но и здоровье психики того стоит.