Опасность ChatGPT сравнили с ядерным оружием

Автор Sapiens Юваль Ной Харари сравнил нейросеть ChatGPT с ядерным оружием

Фото: Tada Images / Shutterstock / Fotodom

Модель искусственного интеллекта (ИИ) ChatGPT и другие подобные модели могут быть опаснее ядерного оружия. Если человек не сможет их контролировать, то сами нейросети могут стать автором более умного искусственного интеллекта. Так писатель, историк и автор известной книги «Sapiens: Краткая история человечества» Юваль Ной Харари сравнил нейросети с оружием массового поражения в статье для The Economist.

Ученый напомнил, что ИИ может саморазвиться вне контроля человека. «В то время как ядерные бомбы не могут сами изобрести более мощное ядерное оружие, искусственный интеллект может создать экспоненциально более мощный искусственный интеллект», — предупредил Харари, отметив, что ИИ может и даже должен использоваться для благих целей вроде поиска лекарства от онкологических заболеваний или разрешения проблем экологии.

По его мнению, в будущем нейросети могут использоваться и для создания полноценного «политического контента и фейковых ироничных новостей», что влечет дополнительные риски для стабильного существования человеческого общества.

Ранее сообщалось, что Сбер и SberDevices (ООО «СалютДевайсы») разработали AI-решение на основе ИИ для создания заголовков. В его основу легла модель NeONKA, используемая в сервисе GigaChat. Редакторам предлагается множество вариантов заголовка для одного и того же текста, среди которых выбирается наиболее удачный. При этом попадут в него только те данные, которые использованы в материале.

Лента добра деактивирована.
Добро пожаловать в реальный мир.
Бонусы за ваши реакции на Lenta.ru
Как это работает?
Читайте
Погружайтесь в увлекательные статьи, новости и материалы на Lenta.ru
Оценивайте
Выражайте свои эмоции к материалам с помощью реакций
Получайте бонусы
Накапливайте их и обменивайте на скидки до 99%
Узнать больше