Чрезмерно развитый искусственный интеллект (ИИ) в перспективе может привести к созданию нечеловеческих разумов, которые начнут конкурировать с людьми. Такое последствие слишком сильного развития этой технологии в беседе с «Лентой.ру» назвал глава компании Novo BI Евгений Непейвода.
«Опасность слишком развитого искусственного интеллекта заключается в том, что он может наводнить информационные каналы пропагандой, отобрать у людей работу и привести к созданию нечеловеческих разумов, которые перехитрят людей и сделают их знания устаревшими и ненужными. Человеку уже сегодня сложно отличить фейки, сгенерированные ИИ, от правды», — констатировал Непейвода.
В качестве примера он привел данные о том, что почти 70 процентов взрослых людей не могут отличить письмо, написанное чат-ботом ChatGPT, от письма, автором которого является человек. Вместе с тем развитие ИИ при определенных условиях может принести человечеству больше пользы, чем вреда.
«Например, в ритейле искусственный интеллект может анализировать данные о покупателях и особенностях их поведения, что поможет компаниям более точно предсказывать спрос на товары и оптимизировать свои запасы. Также ИИ улучшит персонализацию предложений, предлагая купить те или иные товары на основе их предыдущих покупок и интересов», — уверен Непейвода.
При этом, по словам главы Novo BI, прямо сейчас мир находится на важном этапе определения темпов дальнейшего развития искусственного интеллекта. В частности, в ближайшие несколько лет должен определиться мировой лидер, наиболее успешно адаптировавший технологию в бизнесе и на уровне конечных потребителей.
«Сейчас в сфере ИИ-разработок два явных лидера — Китай и США. Но ключевые игроки американского IT-рынка не пришли к однозначному консенсусу относительно того, приостановить ли развитие искусственного интеллекта или форсировать его. Поэтому там предлагают временно приостановить обучение ИИ. Китай же, наоборот, призывает активно развивать его», — заключил Непейвода.
Ранее Италия первой в мире ограничила использование ChatGPT из-за нарушения закона о данных. В стране обратили внимание на отсутствие правовой основы, оправдывающей массовый сбор и хранение личной информации пользователей для обучения алгоритмов, которые лежат в основе работы платформы.