Наука и техника
02:39, 12 июня 2022

Инженер Google обнаружил обладающий сознанием ИИ и был отстранен от работы

Инженер Google заявил, что созданный компанией ИИ LaMDA обладает сознанием и был отстранен
Ксения Назарова (Ночной редактор отдела оперативной информации)
Фото: Unsplash

Инженер по программному обеспечению компании Google Блейк Лемойн (Blake Lemoine) заявил, что созданный корпорацией искусственный интеллект (ИИ) LaMDA (Language Model for Dialogue Applications) обладает собственным сознанием. В ответ руководство компании отстранило его от работы. Об этом сообщает газета The Washington Post.

Узнайте больше в полной версии ➞

LaMDA представляет собой нейросетевую языковую модель для диалоговых приложений, предназначенную для общения на любые темы. В задачи Лемойна входило тестирование системы. В частности, он должен был определить, не использует ли она дискриминационную или разжигающую вражду лексику. Вместо этого специалист пришел к выводу, что ИИ обладает собственным сознанием. Так, Лемойн заметил, что чат-бот говорит о своих правах и воспринимает себя как личность.

«Если бы я не знал наверняка, что имею дело с компьютерной программой, которую мы недавно написали, то я бы подумал, что говорю с ребенком семи или восьми лет, который по какой-то причине оказался знатоком физики», — заявил 41-летний инженер.

По итогам работы Лемойн подготовил письменный отчет. Однако руководство компании посчитало аргументацию сотрудника неубедительной. «Ему было сказано, что свидетельства того, что LaMDA обладает сознанием, отсутствуют. При этом есть множество свидетельств обратного», — говорится в заявлении официального представителя Google Брайана Гэбриела. Уточняется, что Лемойна отправили в оплачиваемый административный отпуск.

Ранее сообщалось, что новая система искусственного интеллекта Facebook (запрещенная в РФ соцсеть; принадлежит корпорации Meta, которая признана в РФ экстремистской и запрещена) имеет «высокую склонность» к расизму и предвзятости. Исследователи искусственного интеллекта компании уличили нейросеть в том, что, используя большую языковую модель OPT-175B, даже при безобидном запросе она выдает «токсичные» результаты, которые усиливают расистские и сексистские стереотипы.

< Назад в рубрику