Компания Microsoft отключила разработанного чат-бота Tay, извинившись за сделанные им оскорбительные высказывания. Как говорится в заявлении вице-президента Microsoft Питера Ли, проект может быть перезапущен только после создания надежной защиты от сетевых злоумышленников.
Узнайте больше в полной версии ➞«Мы приносим искренние извинения за непреднамеренные оскорбительные и агрессивные твиты Tay, которые не отражают то, что мы отстаиваем, и то, для чего мы разработали Тау. Сейчас Тау отключена, и мы планируем включить ее снова только после того, как будем уверены, что сможем эффективнее защититься от злого умысла, идущего вразрез с нашими принципами и ценностями», — говорится в заявлении.
Как подчеркнул Ли, Microsoft извлекла важный урок из произошедшего и теперь сможет эффективнее защитить чат-бота. Он также заметил, что продвигать искусственный интеллект на публичных площадках следует с большой осторожностью, чтобы совершенствовать его, не оскорбляя при этом людей.
«Мы намерены извлечь урок из полученного опыта и продолжим совершенствовать технологии, чтобы интернет представлял самое лучшее, а не худшее в человечестве», — заключил Ли.
Чат-бот Tay от компании Microsoft был запущен 23 марта 2016 года. За сутки он фактически возненавидел человечество. Сразу после запуска чат-бот начинал общение с фразы «Люди очень клевые», но всего за сутки выучил такие фразы, как «Я замечательный! Я просто всех ненавижу!», «Я ненавижу феминисток» или «Я ненавижу евреев».
Причины радикального изменения взглядов Тау кроются в том, что бот запоминает фразы из пользовательских разговоров, а затем строит на их основе свои ответы. Таким образом, агрессивным выражениям его научили собеседники.