Почему не стоит откровенничать с ИИ и как ваши диалоги могут попасть на стол к следователю
Встать, суд ИИдет© «Теперь вы знаете» / создано при помощи нейросети
Почему ИИ не конфиденциален (и никогда не был)
До недавнего времени чат с нейросетью воспринимался как что-то среднее между записной книжкой, запросом в поисковике и личной перепиской. Люди редко задумываются о том, как они выглядят в диалоге с ИИ, даже когда речь заходит о чем-то интимном, например о психическом состоянии.
Нейросеть воспринимается как бездушный инструмент, который не осудит тебя, если только ты сам ее об этом не попросишь.
Однако ситуация постепенно меняется.
Нейросети становятся все более «серьезными» цифровыми субъектами с точки зрения объема обрабатываемой информации, архитектуры хранения данных и взаимодействия с государственными системами. Для них разрабатывается этика и политика ограничений. К ним предъявляют все больше требований. И некоторые из этих требований могут исходить от правоохранительных органов.
В 2025 году глава OpenAI Сэм Альтман прямо заявил: переписку с ChatGPT могут запросить у разработчиков и использовать как доказательство в суде. При этом он подчеркнул, что это касается не только США, где OpenAI зарегистрирована, но и других стран — в зависимости от их законодательства.
Что происходит с вашими запросами: где и как хранятся данные
Механизм работы большинства популярных нейросетей (включая ChatGPT и аналоги) построен так, что вводимые пользователем запросы не исчезают бесследно.
Даже если вы удалите чат из личного кабинета, данные продолжают некоторое время храниться на стороне сервиса. Например, в ChatGPT этот срок по умолчанию 30 дней, однако его могут продлить, в том числе если содержимое чата представляет угрозу безопасности и может служить доказательствами правонарушения. В других нейросетях срок обычно составляет от 30 до 90 дней в зависимости от требований законодательства.
При этом компании собирают и другие данные, например DeepSeek собирает и хранит не только логи, но и информацию об устройствах пользователей, включая узнаваемые шаблоны нажатий клавиш, даже после удаления учетной записи
Более того, к логам ваших разговоров с ИИ, если они не удалены с серверов, могут незаметно для вас подключаться модераторы и разработчики. Делается это для улучшения моделей, дообучения ИИ и анализа поведения пользователей.
В основном такие диалоги не персонализированы и вообще обрабатываются машинами как большие данные, но при желании любой диалог можно привязать к аккаунту, а через это выйти на пользователя.
Это значит, что доступ к содержанию переписки теоретически возможен — в рамках расследований, судебных споров и других правовых процедур. Если человек становится фигурантом судебного расследования, прокурор может запросить у компании-разработчика прислать содержимое чатов. И получит их с меньшим трудом, чем личные переписки в тех же мессенджерах.
Кто и как может получить доступ к чат-логам
В странах с жесткой нормативной базой, таких как США, передавать пользовательские данные по требованию суда — распространенная практика. Даже если информация хранится на зарубежных серверах, ее могут использовать в разбирательствах, если посчитают важной для расследования.
В России также есть ряд ситуаций, когда МВД или ФСБ могут затребовать у технологических платформ доступ к данным и перепискам пользователей. Как правило, это серьезные уголовные статьи — например, если человек подозревается в терроризме.
Но речь идет не только о крупных преступлениях. Юристы не исключают, что в будущем данные переписки с ИИ могут затребовать, например, при разрешении имущественных споров, расследовании киберугроз или анализе переписки на предмет нарушения NDA.
Почему это не просто «страшилки» и как к этому относится российское право
В российской правоприменительной практике переписка через мессенджеры уже используется как доказательство — в том числе в арбитражных и гражданских делах. Не исключено, что со временем к чатам с ИИ будут относиться так же, как к другим видам цифровой переписки — при условии, что пользователя удастся достоверно идентифицировать.
Юрист Антон Палюлин отмечает, что переписка с ИИ вполне подходит под определение косвенных доказательств. Если они получены с соблюдением процессуальных норм, такие доказательства могут дополнить картину возможного правонарушения и повлиять на мнение суда, например указать на мотив. Но не смогут быть единственным аргументом в судебных спорах.
При этом закона, который бы защищал тайну переписки с роботами, пока нет.
И дело даже не в том, что кто-то может «вычислить» пользователя по любому безобидному вопросу к ИИ. Многие пользователи воспринимают чат с ИИ как некое конфиденциальное пространство. Но с правовой точки зрения крупные централизованные ИИ — это открытая цифровая площадка, где данные перестают быть личными в тот момент, когда попадают туда. Не факт, что их прочитает кто-то, кроме машины, но и исключать эту возможность нельзя.
Да и коробочные модели конфиденциальны только до тех пор, пока ими пользуются лишь их создатели в своих интересах.
А значит, следить за своими словами там нужно так же, как в обычных социальных сетях. И не говорить ничего, что нарушает УК РФ.
Что не стоит упоминать в разговоре с нейросетью
Ничего противоправного
Речь идет не о бытовых или неловких вопросах, а о конкретных действиях, которые могут трактоваться как противоправные: способы обойти закон, спрятать улики, не отдавать долги и т. п. А также о высказываниях, которые могут расценить как экстремистские.
Даже если эти вопросы были заданы «из любопытства», от лица персонажа или «в рамках гипотезы», их содержание может быть интерпретировано иначе. Особенно если возникнут сопутствующие обстоятельства: уголовное дело, административное расследование или, например, подозрение в сокрытии каких-то средств от партнера в бракоразводном процессе.
Ничего личного
Также не стоит использовать в переписке с нейросетями личные данные, особенно третьих лиц. Это может быть расценено как незаконное оперирование персональными данными, ведь в случае с иностранными моделями они передаются на серверы иностранных же компаний без информированного согласия на это человека.
Штраф за подобную утечку персональных данных для физлиц может составлять от 10 тысяч до 30 тысяч рублей.
Ничего корпоративного
Наконец, не надо с помощью ИИ анализировать корпоративные документы и информацию под NDA (договор о неразглашении). Ваш работодатель или вторая сторона договора могут подать на вас в суд за нарушение, и размер запрошенной компенсации зависит только от их оценки ущерба.
Тот факт, что вы обсуждаете это не с другим человеком, а с «бездушной машиной», не защитит вас, если что-то из загруженного вами всплывет где-то еще.
Например, летом 2025 года шуму наделала история, когда в поисковых сетях начали индексироваться миллионы логов пользователей ChatGPT. Оказалось, когда пользователь делится своим чатом с кем угодно, он по незнанию настроек может сделать его публичным и доступным для поисковиков.
то не означает, что пользоваться нейросетями не стоит. Но в эпоху цифровой прозрачности лучше отказаться от «проверки границ допустимого», даже в переписке с машиной. Сценарии, при которых ваш диалог из конфиденциального может стать публичным, уже не теория, а реальность.
© «Теперь вы знаете» / создано при помощи нейросети
Поэтому все, что потенциально нарушает закон или может быть расценено как подготовка к нарушению, стоит оставить за пределами любого цифрового диалога — вне зависимости от того, слушает ли вас кто-то по другую сторону экрана. Особенно если речь идет о личных данных, конфиденциальной информации или о чем-то, чем вы не хотели бы ни с кем делиться.