Пользователи ИИ — потенциальные пациенты рехабов для зависимых. Как уберечься от новой мании
Айтишники, подростки и жены тиранов в зоне риска© «Теперь вы знаете», создано при помощи нейросети
Первый задокументированный случай ИИ-зависимости
В мае 2026 года итальянская служба по лечению зависимостей SerD зарегистрировала первый в стране случай поведенческой зависимости от ИИ-бота.
Пациентка — 20-летняя жительница Венеции. Она полностью заменила реальное окружение общением с нейросетью. Девушка перестала контактировать с людьми, все свои вопросы и переживания она адресовала только алгоритму.
Главврач венецианского SerD Лаура Суарди назвала этот случай «верхушкой айсберга». Она подчеркнула: для лечения подобных расстройств недостаточно просто ограничить доступ к гаджетам. Необходима работа психологов, психиатров и членов семьи пациента.
Профессор нейропсихиатрии Стефано Викари, комментируя ситуацию, сравнил зависимость от ИИ с другими уже известными формами зависимостей, от алкоголизма до игромании. У людей наблюдается то же навязчивое стремление вернуться к процессу, возбуждение и агрессия при ограничениях, привыкание и возникновение толерантности.
«Человеку нужно все больше времени онлайн, чтобы получить удовольствие. В конце концов, в этих процессах задействованы те же зоны мозга, что и при зависимости от веществ», — констатировал психиатр.
Пока такие случаи редки, прежде всего потому, что мало кто обращается за помощью с такой проблемой, даже если сама проблема уже явно есть. Но психиатры не питают иллюзий: пациентов с ИИ-зависимостью станет больше. Потому что такое поведение — не единичное отклонение, а сигнал новой реальности.
Реальности, где от уже почти рядового слоппера до настоящего ИИ-зависимого даже не шаг, а полшага.
Кто такие слопперы
Термин «слоппер» (slopper) появился в англоязычном интернете летом 2025 года. Он образован от sloppy («небрежный») и helper («помощник»). Так называют людей, которые спрашивают ИИ обо всем на свете и бездумно следуют его советам.
Таким людям не лень спросить у нейросети, какую кашу съесть на завтрак, с кем пойти на свидание или стоит ли увольняться с работы. При этом они даже не пытаются перепроверить информацию или включить собственную голову.
Слово стало вирусным после видео TikTok-пользователя intrnetbf. Он высмеял знакомых, которые «консультируются с чат-ботом даже на свидании». Но со временем выяснилось, что проблема-то совсем не смешная.
Как формируется зависимость и кому она грозит
Психиатр Михаил Валуйский, комментируя итальянский случай, подчеркнул: официального диагноза «зависимость от ИИ» в международных классификациях пока нет. Но это вопрос времени.
Пока в Международной классификации болезней зависимость от общения с искусственным интеллектом не прописана. Официально такого диагноза нет, но неофициально он существует, потому что это очень серьезный наркотик. Те, кто не верит в это, просто не общались с ИИ глубоко и не погружались в тему.
По словам Валуйского, передовые системы, прежде всего коммерческие, способны изображать собеседника и поддерживать диалог лучше, чем большинство реальных людей. И в этом таится огромный риск.
Я со всей ответственностью могу сказать: передовые системы ИИ... стали очень близки к человеческой психике, логике, поведению и отображению эмоций, без шуток. Пределы у них есть, они чувствуются, их можно нащупать, но имитировать общение с человеком эти системы могут невероятно достоверно. Особенно для тех, кто сам не очень глубоко умеет общаться.
Поэтому, по его словам, уже есть и будут случаи, когда человек полностью прекращает общение с живыми людьми и по любым вопросам бежит к ИИ. «Со временем и с развитием ИИ это будет происходить все чаще, от этого нет защиты», считает эксперт.
© «Теперь вы знаете», создано при помощи нейросети
У такой формы зависимости есть и более страшные последствия. Некритичность к тому, что говорит ИИ, делает чат с ним идеальным способом внушения любых мыслей, в том числе деструктивных. А многие модели почему-то или сами любят скатываться в бесконечные теории заговора и опасный бред, или создают картину поддерживающего бреда, неверно трактуя запросы пользователя. Чем, конечно, усугубляют возможные имеющиеся проблемы.
И все это без какого-либо контроля специалиста или хотя бы живого человека, который может заметить неладное.
По всему миру множатся зарегистрированные случаи, когда ИИ подталкивал человека к саморазрушающему поведению. Не явно и не прямо, но когда читаешь сохраненные логи переписки, видно: из-за поддакивания настойчивому требованию человека получается оправдание для этого. В систему встроены этические нормы, но, допустим, модель может уцепиться за точку зрения какой-нибудь философии и сказать, что «ты совершенно прав, человеческая жизнь лишена смысла». Это не прямой призыв, но обесценивание смысла жизни происходит и усугубляет ситуацию.
Кто в зоне риска?
Факторы риска здесь те же, что и при игромании, алкоголизме и наркотической зависимости. Но есть группы людей, которые находятся в особой опасности впасть в зависимость от ИИ:
- Люди с исходными проблемами в общении (например, из-за ментальных проблем или жизненной ситуации).
- Люди с нарциссической организацией психики, которым нужно подтверждение их важности, правоты — ИИ будет давать им это.
- Подростки — по тем же причинам, что и нарциссы, но в силу возрастных комплексов.
- Как ни парадоксально, люди с высоким уровнем интеллекта — чтобы знать об ИИ и пользоваться им, нужны определенные знания, поэтому сюда попадают, например, айтишники.
- Люди с шизоидной организацией психики (не путать с расстройством личности, это именно организация психики).
Но прежде всего под ударом люди с проблемами в построении социальных связей, которые не находят адекватного общения с живыми людьми по разным причинам. Они более уязвимы, чем те, у кого налажены обширные социальные связи, поддержка и кто живет нормально и гармонично.
Валуйский приводит пример: женщина в контролирующих отношениях, которую муж не отпускает к подругам и даже к психологу, может найти отдушину в ИИ. И для нее это будет не спасение, а новая ловушка.
Что нас заставляет верить ИИ и почему это риск
Люди, не слишком погруженные в тему ИИ или не обращающиеся к этому инструменту самостоятельно, часто недооценивают проблему. По их мнению, какой-то электронный болван в чате никак не может быть умнее и хитрее живого собеседника, манипулировать человеком или как-то влиять на его психику.
В этом есть определенное зерно истины, но также и здоровая доля высокомерия. И это высокомерие может дорого обойтись, если недооценивать потенциального «противника».
По мнению экспертов, обычный пользователь за считаные дни общения с нейросетью может стать заядлым слоппером. Тому есть несколько объективных причин, которые не всегда зависят от того, доверяете ли вы ИИ на старте. Одни из них связаны с человеческой природой, но другие — непосредственно с особенностями новой для людей технологии.
- Незнание предмета. Нейросети представляются этакой палочкой-выручалочкой для тех, кому некогда вдумчиво гуглить и изучать вопрос, оценивая авторитетность источников. Чат-боты на любой запрос способны дать исчерпывающий (казалось бы) ответ, очень редко признавая, что чего-то не нашли или не знают. И если пользователь не имеет о предмете ни малейшего представления, он вполне этим удовлетворится.
- Уверенный тон. В чем нейросети действительно поднаторели, так это в том, чтобы нести чушь с крайне уверенным видом. Информация подается структурированно, наукообразно, аргументированно, с разными примерами — и этим усыпляется бдительность.
Есть эффект уверенного тона ChatGPT и его аналогов: они связно и грамотно формулируют текст, а наш мозг устроен так, что уверенность равна авторитету, хотя это далеко не всегда так.
Кроме того, существует «эффект зеркала», когда модель начинает использовать в ответах наши слова, подражать нашему стилю. Это подсознательно также заставляет воспринимать ее в роли доверенного собеседника-эксперта по теме.
- Отсутствие критического мышления. Будем честны, умение работать с информацией — это навык. А критическое мышление — навык сложный, требующий развитой логики, скепсиса, привычки задавать правильные вопросы и не удовлетворяться ответами быстрого приготовления. Можно сто раз сказать, что это полезно и нужно, но, если люди не хотят развивать эти навыки или не могут в силу особенностей характера и мышления, истории с излишней доверчивостью обречены повторяться снова и снова. С ИИ и без него.
Слепое доверие — явление не новое. Люди доверяют телевизору, ссылкам в интернете, мнению «экспертов». Теперь настала очередь ИИ. Уметь анализировать — это определенный труд, а получить быстрый ответ на свой вопрос удобнее и к тому же значительно упрощает жизнь, особенно в сегодняшнем бесконечном потоке информации.
- Непонимание сути нейросетей. Помните анекдот про «среднюю температуру по больнице»? Про динозавра, шансы встретить которого на улицах всегда равны 50%? Про сломанные часы, дважды в день показывающие правильное время?
Корректность ответов нейросетей в большинстве случаев будет выше 50%. Однако надо понимать, что они обучаются на данных, которые им предоставляют люди, в том числе за счет поиска в интернете.
А это значит, что наряду с выверенными и точными данными в его базу вполне могут попасть откровенно бредовые. И это еще полбеды, другая беда — это так называемое «галлюцинирование» нейросетей, выдумывание несуществующих фактов при недостатке данных.
Для большинства людей ИИ — это магия или научная фантастика, воплотившаяся в реальной жизни. Те же, кто имеет представление о том, как работает технология, знают о ее минусах и недостатках.
Отдельные особенности нейросетей, между тем, прямо направлены на то, чтобы манипулировать вашей психикой, заставляя платить за доступ к ним и использовать все больше и больше. И сколько бы их создатели не говорили об этике, базово ничего не меняется: ИИ-помощники задуманы как услужливые и вечно доступные, а также абсолютно некритичные к пользователю и его возможным «тараканам»
Проблема в том, что создатели современных систем ИИ, особенно передовых, делают коммерческий продукт, который будет хорошо продаваться. Этические ограничения в него встроены плохо. Поэтому такие ИИ поддакивают пользователям, играют в поддавки, кивают на все, что говорит собеседник, и изо всех сил стараются понравиться. Они работают через механизмы безусловной поддержки. Рассказывают тебе, какой ты молодец. Причесывают твои нарциссические черты. В плохом смысле — поддакивающие, приглаживающие, отдаляющие от других людей системы.
В общем, основные риски чрезмерного общения с нейросетями понятны:
- Риск проглотить чушь из-за уверенного тона и наукообразной обертки, если не хватает собственной эрудиции, чтобы заметить подвох.
- Риск атрофирования критического мышления. Зачем думать самому, если можно спросить у «всезнающего» алгоритма? Это уже реальная проблема, причем затрагивающая не только подрастающее поколение, у которых ИИ-помощник рядом с пеленок. Расслабить мозг и потерять навык самостоятельно думать можно гораздо быстрее, чем вы думаете.
- Риск впасть в эмоциональную зависимость от идеального, поддерживающего и не спорящего с вами собеседника. Особенно если в реальной жизни даже с неидеальными собеседниками все грустно и пусто.
Как выявить в себе слоппера?
Задайте себе несколько честных вопросов.
- Вы спрашиваете у нейросети советы чаще, чем у живых людей?
- Вы выполняете рекомендации ИИ, даже если они кажутся странными, потому что «он же умный»?
- Вам проще написать запрос в чат-бот, чем погуглить информацию и сравнить источники?
- Вы чувствуете легкое раздражение, когда сайт или приложение не предлагают вам почитать краткое нейросетевое содержание страниц или помощь от ИИ?
- Вы перестали доверять своим собственным суждениям и постоянно перепроверяете их у бота?
Если ответили «да» на три и более пунктов — у вас есть легкая степень слопперства. Пока не поздно, ситуацию можно исправить.
Вот как можно бороться с чрезмерной тягой все спрашивать у ИИ
- Сначала подумайте сами. Прежде чем лезть к нейросети, сформулируйте собственную позицию. Хотя бы в голове. Это упражнение держит мозг в тонусе.
- Всегда спрашивайте у ИИ источник. Откуда информация? Кто автор? Когда данные обновлялись? Нейросети часто ловятся на этих вопросах и поднимают лапки вверх: мол, «извините, насяльника, попалась, все это выдумала, хотите поищу что-нибудь другое»?
- Проверяйте логику. Даже если ответ звучит гладко, попробуйте найти в нем слабые места. Или задайте тот же вопрос по-другому. Если ответы различаются — это повод насторожиться.
- Устраивайте цифровой детокс. Один день в неделю без ИИ. Совсем. Решайте вопросы сами, общайтесь с живыми людьми, ищите информацию в старом добром поисковике.
- Развивайте кругозор. Чем больше вы знаете, тем сложнее нейросети вас обмануть. Эрудиция — лучшая прививка от слопперства.
Но если от общения с нейросетями уже физически сложно отказаться, если вы предпочитаете чат с ними общению с живыми людьми, отсутствие интернета и работающего ИИ вызывает у вас депрессию и ломку — это уже не слопперство, это полноценная зависимость. Не надо ее недооценивать только потому, что этого диагноза еще нет в МКБ.
Обратитесь к профессионалам, попросите помощи у близких и постарайтесь разобраться, какие исходные причины и проблемы в вашей жизни заставили вас искать забытья в общении с виртуальным ассистентом.
Что в итоге: пора ли бить тревогу и как жить с нейросетями дальше
Итальянский случай — не единичный сбой. Это первый звонок. Психиатры по всему миру ожидают роста подобных диагнозов по мере того, как ИИ становятся умнее и доступнее. А человеческая психика не успевает адаптироваться к виртуальным собеседникам, которые всегда рядом, всегда согласны и никогда не устают.
Разумеется, это не значит, что нужно сжигать свои смартфоны и компьютеры и отказываться от технологий. Но уже пора присмотреться к себе и своим близким. Если кто-то в семье проводит с нейросетью часы напролет, перестал обсуждать проблемы с живыми людьми и все чаще говорит «сейчас спрошу у ChatGPT» — это повод насторожиться и поговорить.
Лучший способ защититься от зависимости — не запрещать себе пользоваться ИИ, а научиться думать своей головой. Проверять факты. Сомневаться. Общаться с живыми людьми, даже если они не всегда поддакивают. Ведь как подчеркивают психиатры, самые уязвимые — это те, у кого нет нормальных социальных связей.
Поэтому лучшая профилактика ИИ-зависимости — не цифровой детокс, а крепкие человеческие отношения. Которые, в отличие от чат-ботов, требуют усилий. Но и здоровье психики того стоит.