Чат-боты с искусственным интеллектом (ИИ) могут раскрывать и собирать персональную информацию от пользователя. Об этом сообщает издание Wired.
Узнайте больше в полной версии ➞Опасность чат-ботов описали ученые Швейцарской высшей технической школы Цюриха (ETH). По словам профессора информатики Мартина Вечева, люди деляются с ботами большими объемами информации, даже не представляя, что это может быть небезопасно: «Это очень, очень проблематично».
Коллеги Вечева отметили, что ChatGPT и прочие чат-боты могут собирать и анализировать данные пользователя, изучая безобидные диалоги. Они могут узнать расу, местоположение, род занятий пользователя и многое другое. Эту информацию можно использовать в качестве таргетированной рекламы или для мошенничества.
Мартин Вечев привел пример, что если человек сообщает чат-боту, что он сел на утренний трамвай, то ИИ может сделать вывод, что пользователь, скорее всего, живет в Европе, где трамваи распространены. Специалисты сообщили о своем исследовании компаниям OpenAI, Google, Meta (признана экстремистской организацией и запрещена в России) и Anthropic, которые занимаются разработкой чат-ботов.
Ранее стало известно, что группа ученых из США и Японии оценила способность чат-бота ChatGPT ставить медицинские диагнозы. Специалисты выяснили, что ИИ оказался плохим инструментом для этих целей.