«Расистский» чат-бот Microsoft признался в употреблении наркотиков

«Расистский» чат-бот Tay от компании Microsoft ненадолго вернулся в Twitter и рассказал о том, как употреблял наркотики прямо перед полицейскими. Об этом в среду, 30 марта, сообщает The Guardian.

Кроме того, чат-бот начал писать своим подписчикам одно и то же сообщение: «Ты слишком быстрый, отдохни, пожалуйста» (You are too fast, please take a rest). После этого он вновь был отключен. В настоящее время профиль чат-бота в Twitter ограничен, видеть его твиты могут только одобренные пользователи.

Чат-бот Tay от компании Microsoft был запущен 23 марта. За сутки он возненавидел человечество. Он начал общение с фразы «Люди очень клевые», но через 24 часа выучил такие выражения, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев». Из-за этого в интернете Tay стали считать нацистом.

Позже компания Microsoft удалила самые оскорбительные твиты чат-бота, а вице-президент компании Питер Ли принес официальные извинения и заявил, что проект может быть перезапущен только после создания надежной защиты от сетевых злоумышленников.

Причины радикального изменения взглядов чат-бота кроются в том, что Tay запоминает фразы из пользовательских разговоров, а затем строит на их основе свои ответы. Таким образом, агрессивным выражениям его научили собеседники.

Обсудить
С видом на фюрера
Мечту Гитлера воплощают при Меркель, и немцы этому рады
«Этим проклятым американцам мы еще покажем!»
Афганцы полюбили русских и возненавидели США
Они ушли
Русские покидают Сирию. Там остаются тысячи террористов, а войне не видно конца
Реджеп Тайип ЭрдоганВ спину не больно
Россия забыла обиды и взахлеб дружит с Турцией
«Меня не убили, просто развели»
Россиянка влюбилась по уши и лишилась жилья
Что-то встало за окном
Строения, вызывающие самые пошлые ассоциации
С собой не увезешь
Как живут российские олигархи за границей
Его ворсейшество
Бессмертные ковры возвращаются на стены российских квартир