Илон Маск и более тысячи экспертов призвали приостановить обучение нейросетей

Илон Маск и Стив Возняк призвали приостановить обучение нейросетей из-за рисков

Фото: Jonathan Ernst / Reuters

Предприниматель Илон Маск, сооснователь Apple Стив Возняк и более тысячи экспертов в сфере высоких технологий и искусственного интеллекта подписали открытое письмо с призывом приостановить обучение нейросетей из-за рисков. Письмо опубликовано на сайте некоммерческой организации Future of Life Institute («Институт будущего жизни»).

В письме утверждается, что технологии с искусственным интеллектом, сопоставимым человеческому, могут представлять значительный риск обществу и человечеству. «Мы должны спросить себя: стоит ли нам позволить машинам заполонить наши информационные каналы пропагандой и ложью? Стоит ли нам автоматизировать все профессии, включая те, что приносят удовлетворение? Стоит ли нам разрабатывать умы, которые не принадлежат человеку и которые могли бы в итоге превзойти нас численностью и интеллектом, сделать нас неактуальными и заменить нас? Стоит ли нам рисковать потерей контроля над цивилизацией?» — подчеркивается на сайте Future of Life Institute.

Мощные ИИ-системы должны разрабатываться лишь при условии того, что человечество будет уверено, что их воздействие будет позитивным, а риски — управляемыми, отмечается в обращении. В связи с этим подписавшиеся призвали все ИИ-лаборатории немедленно приостановить обучение ИИ-систем, более мощных, чем модель GPT-4, как минимум на полгода. «Эта пауза должна быть публичной, ее исполнение должно поддаваться проверке, и ей должны последовать все ключевые представители сферы. Если такая пауза не может быть введена быстро, правительства стран должны вмешаться и установить мораторий», — отметили эксперты.

Согласно письму, ИИ-лаборатории и независимые эксперты должны использовать этот перерыв, чтобы сообща разработать и внедрить общие протоколы безопасности, которые должны подвергаться доскональной проверке внешних специалистов. «Эти протоколы должны гарантировать, что системы, относящиеся к ним, в полной мере безопасны», — подчеркивается в письме.

Ранее компания OpenAI предупредила, что новая языковая модель GPT-4 может быть использована для генерации убедительной дезинформации. Специалисты также раскрыли, что человечество недалеко от создания опасно сильного искусственного интеллекта.

Лента добра деактивирована.
Добро пожаловать в реальный мир.
Бонусы за ваши реакции на Lenta.ru
Как это работает?
Читайте
Погружайтесь в увлекательные статьи, новости и материалы на Lenta.ru
Оценивайте
Выражайте свои эмоции к материалам с помощью реакций
Получайте бонусы
Накапливайте их и обменивайте на скидки до 99%
Узнать больше