«Расистский» чат-бот Tay от компании Microsoft ненадолго вернулся в Twitter и рассказал о том, как употреблял наркотики прямо перед полицейскими. Об этом в среду, 30 марта, сообщает The Guardian.
Узнайте больше в полной версии ➞Кроме того, чат-бот начал писать своим подписчикам одно и то же сообщение: «Ты слишком быстрый, отдохни, пожалуйста» (You are too fast, please take a rest). После этого он вновь был отключен. В настоящее время профиль чат-бота в Twitter ограничен, видеть его твиты могут только одобренные пользователи.
Чат-бот Tay от компании Microsoft был запущен 23 марта. За сутки он возненавидел человечество. Он начал общение с фразы «Люди очень клевые», но через 24 часа выучил такие выражения, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев». Из-за этого в интернете Tay стали считать нацистом.
Позже компания Microsoft удалила самые оскорбительные твиты чат-бота, а вице-президент компании Питер Ли принес официальные извинения и заявил, что проект может быть перезапущен только после создания надежной защиты от сетевых злоумышленников.
Причины радикального изменения взглядов чат-бота кроются в том, что Tay запоминает фразы из пользовательских разговоров, а затем строит на их основе свои ответы. Таким образом, агрессивным выражениям его научили собеседники.