Британские ученые призвали пользователей не делиться личными данными с чат-ботами. Об этом сообщает издание Standard.
Узнайте больше в полной версии ➞По словам профессора компьютерных наук Оксфордского университета (Великобритания) Майкла Вулдриджа, чат-боты наподобие ChatGPT «очень конкретны» и выполняют запросы, которые для них задает пользователь. При этом машина может использовать личные данные потребителей в будущем, отвечая на запросы других пользователей.
В связи с этим Вулдридж предупредил об опасности чат-ботов. По его словам, вся собранная сервисом информация сохранится и будет передана в следующее поколение чат-бота. Он заявил, что случайно загруженные в систему конфиденциальные данные невозможно удалить.
Директор проекта Ai-Da Эйдан Меллер в свою очередь заявил, что стоит опасаться мощности искусственного интеллекта (ИИ): «Он изменит общество, каким мы его знаем, и я думаю, что мы на самом деле только в самом начале». Меллер назвал 2024-й очень важным годом для ИИ, потому что в ближайшие месяцы выйдет новая версия ChatGPT, которая будет способна генерировать данные не только в виде текста.
В середине декабря ученые из Медицинского центра Бет-Изрейел (BIDMC) рассказали, что чат-ботов можно использовать в качестве ассистента при диагностировании заболеваний. В частности, ИИ удалось интегрировать в клинические рабочие процессы.