Наука и техника
15:13, 18 октября 2023

Описана опасность чат-ботов

Wired: чат-боты могут раскрывать личную информацию пользователей из запросов
Андрей Ставицкий (Редактор отдела «Наука и техника»)
Фото: Unsplash

Чат-боты с искусственным интеллектом (ИИ) могут раскрывать и собирать персональную информацию от пользователя. Об этом сообщает издание Wired.

Узнайте больше в полной версии ➞

Опасность чат-ботов описали ученые Швейцарской высшей технической школы Цюриха (ETH). По словам профессора информатики Мартина Вечева, люди деляются с ботами большими объемами информации, даже не представляя, что это может быть небезопасно: «Это очень, очень проблематично».

Коллеги Вечева отметили, что ChatGPT и прочие чат-боты могут собирать и анализировать данные пользователя, изучая безобидные диалоги. Они могут узнать расу, местоположение, род занятий пользователя и многое другое. Эту информацию можно использовать в качестве таргетированной рекламы или для мошенничества.

Мартин Вечев привел пример, что если человек сообщает чат-боту, что он сел на утренний трамвай, то ИИ может сделать вывод, что пользователь, скорее всего, живет в Европе, где трамваи распространены. Специалисты сообщили о своем исследовании компаниям OpenAI, Google, Meta (признана экстремистской организацией и запрещена в России) и Anthropic, которые занимаются разработкой чат-ботов.

Ранее стало известно, что группа ученых из США и Японии оценила способность чат-бота ChatGPT ставить медицинские диагнозы. Специалисты выяснили, что ИИ оказался плохим инструментом для этих целей.

< Назад в рубрику