Раскрыта опасность ChatGPT и других языковых моделей для науки

Patterns: языковые модели типа ChatGPT упрощают создание фальшивых научных исследований

Фото: Nicolas Maeterlinck / Globallookpress.com

Ученые Университета штата Нью-Йорк, Университета медицинских наук Даунстейта, а также Нью-Йоркского медицинского центра Вейла Корнелла выяснили, что продвинутые языковые модели, такие как ChatGPT, могут упростить мошенникам написание сфабрикованных исследовательских работ. Об этом сообщается в статье, опубликованной в журнале Patterns.

Исследователи продемонстрировали возможность создания научной работы с использованием ChatGPT, которая сгенерировала хорошо написанные, но полностью выдуманные тезисы. Гипотетический мошенник может отправить фальшивые тексты в несколько научных изданий для публикации. В случае, если издательства примут их, ChatGPT можно использовать для написания полностью сфабрикованной статьи с ложными данными, несуществующими участниками клинических испытаний и бессмысленными результатами.

Ученые провели аналог теста Тьюринга, в ходе которого людям-экспертам предложили рассмотреть как созданные человеком, так и созданные искусственным интеллектом (ИИ) тексты. Эксперты ошибочно идентифицировали 32 процента тезисов исследований, сгенерированных языковой моделью, и 14 процентов тезисов, написанных людьми.

Также сфабрикованные тексты были проверены на трех онлайн-детекторах текстов, написанных ИИ, и в подавляющем большинстве случаев тезисы были идентифицированы как созданные языковой моделью. Это указывает на то, что использование издательствами инструментов обнаружения сфабрикованных текстов может быть успешным методом борьбы с мошенниками. Однако, когда специалисты сначала прогнали этот текст через онлайн-инструмент перефразирования на базе ИИ, то тезисы были распознаны как созданные человеком. Таким образом, заключают авторы работы, требуются более совершенные инструменты выявления ИИ.

В настоящее время создание фальшивого исследования с достаточным уровнем правдоподобия требует огромных усилий и много времени, что может оказаться слишком утомительной задачей для мошенников. Однако ИИ потенциально может выполнить эту задачу за считанные минуты, что значительно упрощает создание подлогов. Этим могут воспользоваться, например, недобросовестные производители лекарств, а также медицинские работники для получения финансирования и карьерного роста.

Лента добра деактивирована.
Добро пожаловать в реальный мир.
Бонусы за ваши реакции на Lenta.ru
Как это работает?
Читайте
Погружайтесь в увлекательные статьи, новости и материалы на Lenta.ru
Оценивайте
Выражайте свои эмоции к материалам с помощью реакций
Получайте бонусы
Накапливайте их и обменивайте на скидки до 99%
Узнать больше