Описана опасность чат-ботов

Wired: чат-боты могут раскрывать личную информацию пользователей из запросов

Фото: Unsplash

Чат-боты с искусственным интеллектом (ИИ) могут раскрывать и собирать персональную информацию от пользователя. Об этом сообщает издание Wired.

Опасность чат-ботов описали ученые Швейцарской высшей технической школы Цюриха (ETH). По словам профессора информатики Мартина Вечева, люди деляются с ботами большими объемами информации, даже не представляя, что это может быть небезопасно: «Это очень, очень проблематично».

Коллеги Вечева отметили, что ChatGPT и прочие чат-боты могут собирать и анализировать данные пользователя, изучая безобидные диалоги. Они могут узнать расу, местоположение, род занятий пользователя и многое другое. Эту информацию можно использовать в качестве таргетированной рекламы или для мошенничества.

Мартин Вечев привел пример, что если человек сообщает чат-боту, что он сел на утренний трамвай, то ИИ может сделать вывод, что пользователь, скорее всего, живет в Европе, где трамваи распространены. Специалисты сообщили о своем исследовании компаниям OpenAI, Google, Meta (признана экстремистской организацией и запрещена в России) и Anthropic, которые занимаются разработкой чат-ботов.

Ранее стало известно, что группа ученых из США и Японии оценила способность чат-бота ChatGPT ставить медицинские диагнозы. Специалисты выяснили, что ИИ оказался плохим инструментом для этих целей.

Лента добра деактивирована.
Добро пожаловать в реальный мир.
Бонусы за ваши реакции на Lenta.ru
Как это работает?
Читайте
Погружайтесь в увлекательные статьи, новости и материалы на Lenta.ru
Оценивайте
Выражайте свои эмоции к материалам с помощью реакций
Получайте бонусы
Накапливайте их и обменивайте на скидки до 99%
Узнать больше