Наука и техника
14:11, 9 октября 2015

Тайны профессора Хокинга Знаменитый физик ответил на неожиданные вопросы пользователей интернета

Стивен Хокинг в сериале «Теория большого взрыва»
Кадр из фильма «Теория большого взрыва»

В июле 2015 года знаменитый физик Стивен Хокинг обещал ответить на любые вопросы пользователей интернета в ходе онлайн-интервью на сервисе Reddit. Страдающий тяжелой болезнью ученый смог дать первую серию ответов лишь спустя два месяца. «Лента.ру» представляет ее своим читателям.

Сервис Reddit предоставил Хокингу формат группового онлайн-интервью из серии AMA (Ask Me Anything, спроси меня о чем хочешь). Свои AMA уже провели известные популяризаторы науки — Билл Най (Bill Nye) и астрофизик Нил де Грасс Тайсон (Neil deGrasse Tyson).

На обращение к научной звезде пользователям сервиса было дано девять дней — с 27 июля по 4 августа. Хокинг обещал ответить на максимум вопросов в течение следующих недель. Обычно AMA на Reddit проходят в более интенсивном режиме: приглашенная знаменитость с пулеметной скоростью отбивается от падающих на него вопросов. Такая сессия проходит в реальном времени и занимает около часа. Однако страдающий прогрессивной мышечной атрофией Хокинг испытывает большие сложности с коммуникацией и готов писать ответы исключительно в своем темпе.

В качестве главной темы сессии физик предложил искусственный интеллект (ИИ), об опасностях которого он не устает предупреждать человечество. Однако правила Reddit AMA разрешают задавать вопросы обо всем на свете — вплоть до любимого сорта пиццы и самого страшного сна Хокинга. Однако из многих тысяч вопросов до ученого дошли только те, что понравились максимальному числу пользователей Reddit.

Профессор Хокинг, каждый раз, когда я читаю лекции на тему ИИ, машинного обучения или умных роботов, в итоге все кончается разговором со студентами на тему Терминатора. В этих дискуссиях я всегда говорю, что опасность ИИ раздувается в СМИ. Настоящая опасность тут та же, что и в любом не до конца понятном программном коде: в непредсказуемости пограничных случаев. Мне кажется, это отличается от «опасного ИИ» в представлениях большинства людей — у ПО нет мотивов, сознания и злых намерений: программа просто пытается оптимизировать функцию, которую мы сами прописали и спроектировали.

Ваша (и Илона Маска) точка зрения в СМИ часто приводится как пример веры в «злой ИИ». Студенты об этом знают, и это придает оживления нашим дискуссиям. Как бы вы представили вашу позицию на моих семинарах? Можно ли совместить наши точки зрения? Не наивна ли моя склонность критиковать «страх перед Терминатором»? И последнее — какую моральную позицию, по вашему мнению, стоит поощрять среди студентов, интересующихся ИИ?

Вы правы: масс-медиа часто неверно интерпретируют чужие слова. Настоящий риск ИИ связан не со злым умыслом, а с компетентностью. Сверхразумный ИИ будет замечательно достигать своих целей, и если эти цели не совпадут с нашими, вот тогда мы попадем в беду. Вы же не ненавистник муравьев, который по злобе давит насекомых. Но если вы руководитель проекта по экологически чистой гидроэнергетике, а на территории, подлежащей затоплению, находится муравейник — горе муравьям. Давайте не ставить человечество на место этих муравьев. Пожалуйста, поощряйте ваших студентов не только создавать ИИ, но и обеспечивать его использование в благих целях.

Доктор Хокинг, здравствуйте. Я недавно получил степень бакалавра по ИИ и когнитивистике. Изучая ИИ, я непосредственно сталкиваюсь с этическими вопросами, связанными с тем, как быстро машины узнают о личных свойствах и поведении людей, а также научились определять их личность с пугающей скоростью. Тем не менее идея «сознательной», разумной системы ИИ, которая представляла бы смертельную угрозу для человечества, мне кажется странной и очень далекой от нас (при нынешнем уровне развития нейрофизиологии и вычислительной техники). Вот что я хотел спросить: предупреждая нас об угрозе умных машин, вы говорите о современных тенденциях (в машинном обучении, например) или о подготовке к тому, что неизбежно наступит в далеком будущем?

О втором. Среди исследователей ИИ нет согласия в том, сколько времени потребуется на доведение ИИ до уровня человеческого разума и выше, так что, пожалуйста, не верьте никому, кто заявляет о том, что это случится при вашей жизни (или не при вашей жизни). Но в любом случае это будет самое лучшее или самое худшее событие в истории человечества, так что крайне ценно понять это правильно. Нам следует изменить задачу: создавать не чистый неуправляемый искусственный интеллект, но благотворный интеллект. Поиск путей к этой цели может потребовать многих десятилетий, так что давайте начнем сейчас, а не ночью накануне включения первого мощного ИИ.

Хорошо бы спросить профессора Хокинга что-то иное, если он не против. Здесь более чем достаточно научных вопросов, заданных с недоступным мне красноречием. Так что вот: какова ваша любимая песня и почему?

«Have I Told You Lately» Рода Стюарта.

Какой ваш любимый фильм всех времен и почему?

«Жюль и Джим» 1962 года.

Что из последних вещей, которые вы видели в интернете, показалось вам забавным?

«Теория большого взрыва».

В этом году вы, Илон Маск и многие известные ученые подписали открытое письмо о «подводных камнях» ИИ. Мои вопросы. 1. Есть мнение, что творение никогда не станет умнее своего творца. Вы согласны? Если да, то как же искусственный интеллект может представлять угрозу для рода человеческого (его творцов)? 2. Если ИИ сможет превзойти людей, где проводить красную линию? Иными словами, до какого уровня человечество должно доводить ИИ, чтобы тот не обогнал его?

Вполне возможно обогнать по интеллекту собственных предков: в ходе эволюции мы обошли наших обезьяноподобных предков, а Эйнштейн был умнее своих родителей. Линия, о которой вы говорите — это когда ИИ сможет лучше человека конструировать ИИ, и таким образом получит шанс усовершенствовать себя без помощи человека. Если это произойдет, мы столкнемся со взрывом интеллекта, с машинами, превосходящими нас по уровню интеллекта больше, чем мы превосходим улиток.

Доктор Хокинг, какую тайну вы считаете наиболее увлекательной и почему? Спасибо.

Женщин. Мой секретарь напоминает мне: хотя у вас есть степень доктора философии в области физики, женщины должны оставаться загадкой.

Я сильно опоздал на вопросную вечеринку, но все равно спрошу с надеждой получить ответ. Думали ли вы о технологической безработице, когда мы создаем автоматизированные процессы, способные выполнять многие рабочие задачи быстрее и дешевле, чем люди? Многие в этом контексте вспоминают луддитов, восстание которых отчасти произошло из-за «технологической безработицы» (по крайне мере, они так думали). Ожидаете ли вы, что люди будут работать меньше при росте автоматизации? Думаете ли вы, что люди всегда смогут найти работу или создать новые рабочие места?

Если машины будут производить все, что нам нужно, все зависит от распределения полученных благ. Если это богатство разделить на всех, каждый может перейти к роскошному и праздному образу жизни. Или большинство людей окажется за чертой бедности — если владельцы машин успешно предотвратят перераспределение богатства. Пока мировые процессы идут скорее во втором направлении, и технологии лишь усиливают все растущее неравенство.

Профессор Хокинг, недавно я думал о воле биологических организмов к выживанию и воспроизводству и о том, как этот импульс эволюционировал на протяжении жизни миллионов поколений. Будет ли ИИ наделен этими базовыми стимулами, а если нет, то будет ли это представлять угрозу для человечества?

Сконструированный ИИ (в отличие от возникшего в ходе эволюции) может, в принципе, руководствоваться любыми побуждениями и преследовать любые задачи. Однако, как подчеркивает Стив Омохандро, сверхразумный ИИ будущего, скорее всего, разовьет в себе побуждение к выживанию и приобретению новых ресурсов — чтобы смочь выполнить свои задачи. Выживание и накопление ресурсов повысит шансы на достижение цели. Это может создать проблемы для людей, чьи ресурсы ИИ присвоит.

Профессор Хокинг, в 1995 году родители оставили нас с братом в пункте видеопроката в Кембридже. Мы сидели на скамеечке и смотрели по телевизору «Мир Уэйна 2». Тут ваша медсестра подкатила коляску с вами, и мы все вместе смотрели фильм примерно пять минут. Мой отец увидел это и настоял на том, чтобы взять видеокассету с картиной напрокат — если она хорошо для вас, то и для нас подойдет, решил он. Вы не помните, как вы смотрели «Мир Уэйна 2»?

НЕТ.

< Назад в рубрику