Наука и техника
14:10, 16 декабря 2024

ИИ уступил человеку в одном навыке

The Conversation: ИИ оказался не способен понимать человеческие эмоции
Андрей Ставицкий (Редактор отдела «Наука и техника»)
Фото: Kent Edwards / Reuters

Ученые и IT-компания не смогли создать модель искусственного интеллекта (ИИ), которая была бы способна корректно различать человеческие эмоции. Об этом сообщает издание The Conversation.

Узнайте больше в полной версии ➞

Журналисты медиа заметили, что на рынке появляются ИИ-сервисы, создатели которых обещают, что они могут различать и работать с человеческими эмоциями. Однако ученые считают, что нейросети и машины до сих пор уступают человеку в этом навыке.

В качестве примера авторы привели австралийский стартап inTruth, специалисты которого заявили, что их модель ИИ способна различать человеческие эмоции и делать на основе этого выводы. Однако журналисты отметили, что научных доказательств того, что машины могут понимать эмоциональное состояние человека, до сих пор нет.

Ранее было установлено, что ИИ допускает дискриминацию по признаку расы, пола и инвалидности. В одном случае модель воспринимала эмоции чернокожих людей как более агрессивные. Также специалисты отмечают, что изученные модели ИИ при определении эмоций склонны полагаться на физиогномику и френологию — признанные сообществом псевдонаучные направления.

В inTruth возразили, что добились прорыва в определении человеческих эмоций. Специалисты отметили, что проблема дискриминации или предвзятого отношения сложились не по вине самой технологии, а из-за набора данных, на которых обучали ИИ.

Ранее правозащитники из США призвали полицию не использовать ИИ для составления протоколов и отчетов. Активисты полагают, что ИИ может стать причиной ошибок в полицейских материалах.

< Назад в рубрику