Модель искусственного интеллекта (ИИ) ChatGPT и другие подобные модели могут быть опаснее ядерного оружия. Если человек не сможет их контролировать, то сами нейросети могут стать автором более умного искусственного интеллекта. Так писатель, историк и автор известной книги «Sapiens: Краткая история человечества» Юваль Ной Харари сравнил нейросети с оружием массового поражения в статье для The Economist.
Узнайте больше в полной версии ➞Ученый напомнил, что ИИ может саморазвиться вне контроля человека. «В то время как ядерные бомбы не могут сами изобрести более мощное ядерное оружие, искусственный интеллект может создать экспоненциально более мощный искусственный интеллект», — предупредил Харари, отметив, что ИИ может и даже должен использоваться для благих целей вроде поиска лекарства от онкологических заболеваний или разрешения проблем экологии.
По его мнению, в будущем нейросети могут использоваться и для создания полноценного «политического контента и фейковых ироничных новостей», что влечет дополнительные риски для стабильного существования человеческого общества.
Ранее сообщалось, что Сбер и SberDevices (ООО «СалютДевайсы») разработали AI-решение на основе ИИ для создания заголовков. В его основу легла модель NeONKA, используемая в сервисе GigaChat. Редакторам предлагается множество вариантов заголовка для одного и того же текста, среди которых выбирается наиболее удачный. При этом попадут в него только те данные, которые использованы в материале.