Ошибся ИИ, а отвечать вам. Как не испортить свою работу и не стать крайним из-за галлюцинаций нейросетей
© Коллаж: «Теперь вы знаете», создано при помощи нейросети
Кто в ответе за ИИ-галлюцинации?
Разработчики нейросетей постоянно совершенствуют технологии, но пока не способны создать ИИ, который бы мог отличать ложь от правды. По сути, искусственный интеллект — это компилятор, задача которого — генерировать наиболее полный и вероятный ответ. Вопрос достоверности и точности фактов для него чаще всего вторичен, если не ставить ему такую задачу отдельно.
Искусственный интеллект даже самых продвинутых моделей нередко «галлюцинирует», то есть уверенно выдает вымышленные факты, не существующие источники или ошибочные цифры, оформленные так, будто они реальны.
Как свидетельствуют исследования OpenAI, несмотря на то что с галлюцинациями ИИ борются буквально с начала их существования, пока результаты оставляют желать лучшего.
Причем с каждой новой моделью нейросети все больше искажают факты, ведь они продолжают обучаться в том числе на массивах текстах из интернета, в которых с каждым днем все больше непроверенной информации от тех же нейросетей.
В среднем около 40% ответов, выдаваемых ИИ, некорректны или вовсе являются вымыслом.
Технологические «фантазии» создают серьезные проблемы в корпоративной среде. Беда в том, что пока мало у кого есть понимание, что и как с этим делать.
В России правовое регулирование ИИ находится в стадии разработки. Кто несет ответственность за фейки, создаваемые нейросетями, закон пока не дает ответа. Поэтому в спорных ситуациях юристы руководствуются логикой и статьей 1064 ГК РФ, согласно которой вся ответственность за моральный или материальный ущерб ложится на того, кто его причинил. То есть, на человека, поскольку нейросеть не признается субъектом права.
Круг ответчиков может быть довольно широк — от конкретного сотрудника компании до разработчиков системы. Все зависит от масштаба вреда, каким бы он ни был: материальным, репутационным и т. д.
Так, в апреле 2023 года мэр одного из городов Австралии Брайан Худ пригрозил подать в суд на компанию-разработчика OpenAI ChatGPT, если из ответов ИИ про него не исчезнет ложная информация о том, что он отбывал тюремное заключение за взяточничество.
Иск в суд на OpenAI подал и радиоведущий Марк Уолтерс, когда узнал, что ChatGPT обвинил его в растрате средств некоммерческой организации Фонд Второй поправки.
Полное моральное право попытаться добиться компенсации у разработчиков нейросетей недавно появилось и у российского ученого Александра Цветкова. Гидролога из Ярославля задержали и продержали в СИЗО несколько месяцев из-за того, что нейросеть нашла в его внешности 55% портретного сходства с разыскиваемым преступником.
Защите пришлось попотеть, доказывая, что в момент совершения убийств, в которых обвиняют его «нейросетевого близнеца», ученый находился совсем в других городах России.
Таких примеров много, но и в России, и во всем мире ответственность за деятельность ИИ все же несут физические или юридические лица, а не искусственный интеллект. Особенно если они должны были проверить его работу, но решили, что «и так сойдет».
Показательным в этом плане стал кейс американских адвокатов, защищавших Майка Линделла, генерального директора компании MyPillow. При подготовке процессуальных документов они использовали искусственный интеллект, который просто выдумал отдельные законы, ссылки и цитаты, чтобы убедить судью в невиновности их клиента.
За такое неуважение к суду их оштрафовали на $3000. Но репутация их в профессиональной сфере могла пострадать намного, намного больше.
Как выявить ИИ-галлюцинации
Врать ИИ порой начинает неожиданно и весьма правдоподобно, так что люди часто принимают выдаваемые им сведения за правду.
Популярная газета с хорошей репутацией The Chicago Sun-Times опубликовала список литературы, которую рекомендовала прочитать своим подписчикам. Однако вскоре выяснилось, что некоторых произведений не существует вовсе: они были выдуманы ИИ, с помощью которого составляли перечень. Причем к каждому роману прикреплялась аннотация, поэтому список казался убедительным.
© «Теперь вы знаете» / создано при помощи нейросети
Такие случаи не редкость и происходят в различных сферах.
В связи с этим возникает необходимость выявлять ИИ-галлюцинации. Сделать это может только человек.
Но необходимо сначала принять тот факт, что искусственный интеллект — не истина в последней инстанции, и обращать внимание на следующие признаки:
- Чрезмерная детализация. Если ИИ приводит точные, но нелогичные факты, даты, имена, которые вы никогда не слышали, ссылки на неизвестные статьи, документы, стоит насторожиться. Велика вероятность, что детали выдуманы технологиями.
- Нерабочие ссылки, нет указания на источник. Иногда нейросеть приводит факты, но не может найти, откуда они взяты, или дает ссылки, которые никуда не ведут. Использование таких данных может повлечь за собой проблемы.
- Отсутствие логики между событиями. Иногда ИИ приписывает цитату другому автору, называет ложную дату происшествия. Происходит смещение фактов.
- Устаревшие данные. Искусственный интеллект может использовать неактуальную информацию, выдавая ее за свежую.
Любое подозрение на ложные факты требует тщательной проверки, если ИИ применяют в юриспруденции, медицине, бизнесе, на производстве. Цена ошибки может быть слишком высока.
Как минимизировать риск ИИ-галлюцинаций в бизнесе
Прежде всего, важно воспитывать в сотрудниках цифровую культуру. Тщательная проверка любой информации, предоставленной ИИ, должна превратиться в рутинную практику.
Для этого руководству необходимо внедрять обучение взаимодействию с технологиями. При необходимости можно привлечь специалистов в этой сфере в качестве консультантов.
Не менее важны изменения в уставе и внутренней политике организации: нужно назначить ответственных за информацию лиц и обеспечить контролируемый доступ к данным.
Но главное — научить сотрудников грамотно работать с ИИ:
- Использовать поисковые запросы для проверки фактов. Так, если нейросеть привела цитату или предоставила названия работ автора, можно ввести данные в поисковик и таким образом удостовериться, насколько они правдивы. Вероятность, что проиндексирована ложная информация, таким образом минимизируется.
- Требовать ссылку на источник и конкретную цитату из него. Например, ИИ предоставляет статистику промышленных предприятий, закрывшихся в прошлом году, но не может назвать источник информации. Или предоставляет, но, если перейти по ссылке, указанная информация там отсутствует. К таким данным стоит отнестись критически.
- Обращаться за помощью к экспертам. Специалисты в своей области подтвердят или опровергнут факты, выдаваемые ИИ. Если информация выглядит недостоверно, лучше лично убедиться в ее истинности. Главное, чтобы эти специалисты были настоящие и обладали настоящими знаниями, а не решали задачи и запросы с помощью тех же нейросетей.
- Задавать четкий алгоритм ответа. Просите нейросеть предоставлять информацию в строго определенном порядке: Тезис — Доказательство — Ссылка на источник. Такой подход ограничивает фантазии ИИ. Кроме того, так легче отслеживать правдивость фактов.
- Воспитать внутреннего критика. Просите ИИ в новом чате проанализировать его же ответ на предмет достоверности и актуальности информации. Как это делать, кстати, рассказываем здесь.
- Проверять факты перекрестно. Если это возможно, используйте несколько источников, чтобы убедиться в истинности данных. Это может быть поисковик, ответ эксперта, документы компании, статьи в журналах и т.д.
Полностью предотвратить ИИ-галлюцинации невозможно, но свести их к минимуму вполне реально.
Лучший способ — обучать нейросети на основе собственных данных: документации компании, проверенных описаний товаров или услуг, научной информации о продукции, судебных актах и других. Загружая достоверную информацию, вы увеличиваете шансы получить качественный и правдивый результат.
Главное, помните, что в условиях отсутствия четкого правового регулирования ответственность за последствия ИИ-галлюцинаций полностью возлагается на юридическое или физическое лицо, принявшее к использованию недостоверные факты. Это значит, что как бы ни была соблазнительна мысль про «вкалывают роботы, счастлив человек», за вас качество работы ИИ сам ИИ не проконтролирует.
Минимизировать риски позволяет внедрение в организации строгой системы проверки всех данных, полученных от использования нейросетей. Следовательно, главной задачей бизнеса в 2026 году становится формирование цифровой культуры, при которой работа с искусственным интеллектом всегда сопровождается критической оценкой и человеческим контролем.