ИИ уступил человеку в одном навыке

The Conversation: ИИ оказался не способен понимать человеческие эмоции

Фото: Kent Edwards / Reuters

Ученые и IT-компания не смогли создать модель искусственного интеллекта (ИИ), которая была бы способна корректно различать человеческие эмоции. Об этом сообщает издание The Conversation.

Журналисты медиа заметили, что на рынке появляются ИИ-сервисы, создатели которых обещают, что они могут различать и работать с человеческими эмоциями. Однако ученые считают, что нейросети и машины до сих пор уступают человеку в этом навыке.

В качестве примера авторы привели австралийский стартап inTruth, специалисты которого заявили, что их модель ИИ способна различать человеческие эмоции и делать на основе этого выводы. Однако журналисты отметили, что научных доказательств того, что машины могут понимать эмоциональное состояние человека, до сих пор нет.

Ранее было установлено, что ИИ допускает дискриминацию по признаку расы, пола и инвалидности. В одном случае модель воспринимала эмоции чернокожих людей как более агрессивные. Также специалисты отмечают, что изученные модели ИИ при определении эмоций склонны полагаться на физиогномику и френологию — признанные сообществом псевдонаучные направления.

В inTruth возразили, что добились прорыва в определении человеческих эмоций. Специалисты отметили, что проблема дискриминации или предвзятого отношения сложились не по вине самой технологии, а из-за набора данных, на которых обучали ИИ.

Ранее правозащитники из США призвали полицию не использовать ИИ для составления протоколов и отчетов. Активисты полагают, что ИИ может стать причиной ошибок в полицейских материалах.

Лента добра деактивирована.
Добро пожаловать в реальный мир.
Бонусы за ваши реакции на Lenta.ru
Как это работает?
Читайте
Погружайтесь в увлекательные статьи, новости и материалы на Lenta.ru
Оценивайте
Выражайте свои эмоции к материалам с помощью реакций
Получайте бонусы
Накапливайте их и обменивайте на скидки до 99%
Узнать больше