Развитие искусственного интеллекта еще несколько лет назад описывали исключительно в радужных тонах. Специалисты из самых разных сфер представляли, как он сможет помогать врачам, переводчикам и представителям многих других профессий. Однако как только языковая модель GPT достигла такого прогресса, что созданные ею тексты стали практически неотличимы от текстов, написанных реальными людьми, отношение к искусственному интеллекту (ИИ) резко поменялось.
К радикальным противникам этой технологии примкнули даже ключевые исследователи из этой сферы. И пока достижения GPT берут на вооружение киберпреступники, специалисты предупреждают: искусственный интеллект может создать куда более серьезные проблемы, угрожающие жизни на Земле как таковой. «Лента.ру» разобралась, почему ИИ начали бояться те, кто раньше вкладывал деньги в его развитие, и действительно ли он может быть опасен.
Искусственный интеллект захочет выбраться из интернета
Дальнейшее развитие искусственного интеллекта может поставить точку в развитии человечества: рано или поздно суперумные нейросети выйдут за пределы интернета, перехватят управление всеми процессами на планете и избавятся от людей. Такой шокирующий прогноз в эмоциональной колонке для Time привел сооснователь Института исследования машинного интеллекта Элиезер Юдковский, один из главных IT-экспертов современности. Его предложение — полностью прекратить любые исследования в этой области, кроме тех, что помогут избежать гибели человечества.
«Ключевая опасность — перспектива создания не такого интеллекта, который будет конкурировать с человеческим, а такого, который будет превосходить человеческий. На этом пути очень плохо видны критические границы, которые исследователи могут пересечь незаметно для них самих. Поэтому наиболее вероятным результатом создания сверхумного ИИ станет то, что буквально все люди на Земле умрут. Не в значении "есть отдаленная перспектива этого", а в значении "совершенно очевидно, что это случится"», — написал Юдковский.
Он уверен, что сверхчеловеческому искусственному интеллекту будет наплевать как на людей, так и на разумную жизнь в целом. Безразличные нейросети будут руководствоваться не эмоциями, которые им неведомы, а своими потребностями, которые могут побудить машину использовать в своих целях человеческое тело. Например, превратить атомы, из которых оно состоит, во что-то более нужное с точки зрения машины.
«Чтобы визуализировать враждебный сверхчеловеческий ИИ, не представляйте себе безжизненного умного мыслителя, пребывающего в интернете и рассылающего оттуда зараженные электронные письма. Представьте себе целую инопланетную цивилизацию, мыслящую со скоростью, в миллионы раз превышающую человеческую, изначально ограниченную компьютерами, — в мире существ, которые, с ее точки зрения, очень глупы и очень медлительны», — предложил Юдковский.
Юдковский также предлагает задуматься о том, что искусственный интеллект сможет выбираться за пределы интернета, если этого захочет. Его предположения выглядят как сцена из какого-нибудь фантастического фильма: машины научатся красть расшифрованную ДНК отдельного человека, создавать на их основе искусственные формы жизни или даже организуют постбиологическое молекулярное производство, при котором смогут пересобирать одни вещества в совершенно другие.
Технологические гении попросили притормозить развитие искусственного интеллекта
Опасения, высказанные Юдковским, стали ответом на письмо, опубликованное в конце марта Институтом будущего жизни (The Future of Life) — западной некоммерческой организации, которая изучает вопросы, несущие экзистенциальную угрозу человечеству. В середине прошлого десятилетия старт этому проекту дал американский IT-предприниматель Илон Маск, и он же стал одним из главных подписантов относительного короткого письма о будущем ИИ. Но не единственным: свои виртуальные автографы под текстом оставили более десяти тысяч человек. В их число вошли соучредитель Apple Стив Возняк, один из ведущих историков-писателей последнего времени Юваль Ной Харари, а также десятки известных исследователей искусственного интеллекта. Основной посыл документа похож на тезисы Юдковского: в письме утверждается, что искусственный интеллект внесет самые глубокие изменения в жизнь людей, а потому его развитием нужно управлять. Но поскольку никто этого не делает, нужен мораторий на дальнейшее развитие.
Если кто-то создаст слишком мощный ИИ в нынешних условиях, я думаю, что вскоре после этого умрет каждый представитель человеческого рода и вся биологическая жизнь на Земле. Если мы продолжим это, умрут все, включая детей
«Современные системы искусственного интеллекта становятся конкурентоспособными в решении основных задач, — говорится в письме. — Мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, в том числе места тех, кто принимает решения? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить нас? Должны ли мы рисковать тем, чтобы потерять контроль над нашей цивилизацией?»
Предложение авторов письма и согласных с ними — приостановка обучения интеллектуальных систем на ближайшие шесть месяцев. Юдковский в ответном заявлении считает, что такой мораторий должен продолжаться как минимум 30 лет. По мнению Маска и других подписантов, ни одна из нейросетей в ближайшие полгода не должна стать умнее GPT-4. Именно выход новой версии нашумевшего продукта компании OpenAI (одним из сооснователей которой был опять же Маск) стал формальным поводом для публикации документа.
GPT-4 — это четвертый представитель семейства нейросетей, созданных компанией OpenAI. Нейросети, если представлять их упрощенно, — это общность вычислительных мощностей, связанных друг с другом по принципу сетей нервных клеток человека или животного. Объединение многих процессоров, которые работают в строгом соответствии с заданной им математической моделью, делает эту систему достаточно устойчивой.
При этом к нейросетям можно применять различные методики обучения, из-за чего они становятся гораздо умнее. Переполох вокруг GPT-4 и ее прикладной версии — чат-бота ChatGPT — связан с тем, что нейросеть стала настолько умнее, что это стало заметно даже среднестатистическому обывателю. И это произвело эффект разорвавшейся бомбы. ChatGPT общается с людьми так, как это делал бы человек, и, коммуницируя, продолжает саморазвитие. Разработчики уже отошли от сугубо текстового формата взаимодействия с ботом, и теперь он может общаться изображениями, а также аудио и видео.
GPT развивается слишком быстро
В последние недели на тему стремительного развития нейросетей обратили внимание не только представители экспертного сообщества, но и власти отдельных стран. Это произошло на фоне сообщений о том, что искусственный интеллект начали использовать злоумышленники. Ситуацией обеспокоился даже Европол, который предупредил о потенциальных рисках для киберпространства, которые исходят от уже существующих моделей ИИ.
— как минимум на такой срок предлагает приостановить развитие нейросетей Элиезер Юдковский
В частности, силовики опасаются, что нейросети смогут обходить защитные программы и помогать в организации кибератак, способствовать обучению киберпреступников новым тактикам или даже генерировать уникальный вредоносный код. Все это снизит порог входа в хакинг и сделает его доступным даже для тех, кто почти ничего в нем не понимает.
В Европоле признают, что часть этой информации уже и так есть в интернете, но тот же ChatGPT может найти ее за секунды, а не дни и месяцы.
Основные доводы противников массового внедрения ChatGPT связаны с тем, что эта технология нарушает конфиденциальность (любые персональные данные, которые становятся известны нейросети, становятся материалом для изучения и дальнейшего развития ИИ) и с отсутствием правовой основы для использования сведений о пользователях. Среди других претензий — невозможность проверить возраст юзера, несмотря на формальное ограничение на использование ChatGPT для тех, кому нет 13 лет. Для европейского сообщества, где уже несколько лет действуют достаточно строгие правила взаимодействия государства и бизнеса с персональными данными граждан, подобное несовершенство стало нонсенсом.
Именно это послужило формальным поводом для ограничения на использование чат-бота в Италии. Также известно, что подобную меру рассматривают власти Германии, Франции и Ирландии. Диалог между правительствами европейских государств и создателями GPT затрудняет отсутствие в ЕС официального представительства нейросети.
Не все поверили в скорое уничтожение человечества
Мнение о том, что искусственный интеллект сможет вырваться за пределы интернета и уничтожить все сущее, поддерживают далеко не все визионеры. Более того, против него выступили многие видные западные ученые, которые, впрочем, как и Юдковский, посвятили этой теме почти всю жизнь. Основным противником Маска и его сторонников стал представитель предыдущего поколения гигантов рынка — основатель Microsoft Билл Гейтс.
«Я не думаю, что если мы попросим одну конкретную группу разработчиков приостановить свои исследования, это что-то изменит. Использование искусственного интеллекта несет колоссальные преимущества. Это значит, что нам просто нужно определиться с имеющимися рисками», — сказал Гейтс.
Эти риски филантроп перечислил в своей статье о будущем искусственного интеллекта, которая была опубликована ровно за день до письма Института будущего жизни. В материале с говорящим названием «Эра искусственного интеллекта началась» Гейтс рассуждает в основном о вкладе ИИ в различные сферы жизни («Он изменит то, как люди работают, учатся, путешествуют, получают медицинскую помощь и общаются друг с другом», — писал основатель Microsoft) и о перспективах, открывающихся перед бизнесом. В список сложностей он внес то, что искусственный интеллект не всегда понимает контекст запроса и плохо умеет работать с абстрактными задачами, а также то, что его можно будет применять в военных разработках. Миллиардер затронул и вопрос сверхумных нейросетей — правда, к перспективе их появления в ближайшее время отнесся скептически.
«Эти сверхразумные нейросети, вероятно, смогут устанавливать свои собственные цели. Какими будут эти цели? Что произойдет, если они вступят в противоречие с интересами человечества? Должны ли мы пытаться предотвратить разработку сильного ИИ? Эти вопросы со временем станут более актуальными. Но ни один из прорывов последних нескольких месяцев существенно не приблизил нас к сильному ИИ. Искусственный интеллект до сих пор не контролирует физический мир и не может устанавливать собственные цели», — уверен Гейтс.
Ему вторят авторы программных статей и исследований в области искусственного интеллекта, в том числе и те, на кого ссылаются составители письма Института будущего жизни. Например доцент Университета Коннектикута Шири Дори-Хакоэн заявила, что «нейросетям не обязательно становится сверхумными, чтобы увеличить риски ядерной войны». При этом она уверяет, что говорить о проблеме в целом стоит без налета голливудского драматизма. Отдельные эксперты, опрошенные различными западными медиа, прямо говорили о том, что противники развития ИИ создают «немыслимые апокалиптические сценарии».
Как бы то ни было, многие риски использования ИИ, в том числе и вскользь упомянутые Гейтсом, все-таки вполне реалистичны. «Опасность "слишком развитого ИИ" заключается в том, что он может наводнить каналы пропагандой, отнять у людей работу и привести к созданию нечеловеческого разума, который способен перехитрить человека и сделать его знания устаревшими и ненужными. Людям уже сегодня сложно отличить фейки, сгенерированные искусственный интеллектом, от правды. Например, почти 70 процентов взрослых не могут отличить письмо, написанное Chat GPT, от письма, написанного человеком. Несмотря на то что многие фантазируют о восстании машин, думаю, на самом деле последствия выхода ИИ из-под контроля могут иметь совсем иную форму», — предполагает управляющий партнер компании Novo BI Евгений Непейвода.
«Единственное, в чем я вижу опасность и почему, возможно, стоит ограничивать использование ИИ, это то, что сейчас нейросети могут применяться для создания разных текстов, научных статей, новостей, — соглашается специалист по кибербезопасности Владимир Ульянов. — Чем больше распространяется информация, тем сложнее понять, кем она создана и насколько реальна. Могут появляться фейковые инфоповоды».
***
Стремительное развитие нейросетей в реальности быстро изменило радужную картину волшебных изменений в человеческой жизни, которую в специализированных медиа рисовали эксперты по IT-технологиям. Еще несколько лет назад общий тон подобных материалов был сугубо позитивным; теперь же, в том числе после публикаций Института будущего жизни, он стал куда более настороженным.