Множество технологий, объединяемых под названием искусственный интеллект, незаметно успело превратиться из ярких деталей из фильмов о далеком будущем в обыденность. Камеры с системой распознавания лиц и беспилотники, которые помогают найти заблудившихся в лесу людей, вызывают сегодня у многих куда меньше удивления, чем «Прибытие поезда» у своих первых зрителей. Чтобы не воплотить в жизнь самые смелые ожидания скептиков и не превратить мир в антиутопию, в которой машины контролируют людей, разработчики занимаются вопросами этики искусственного интеллекта. Что российские ученые предлагают сделать для того, чтобы контролировать ИИ, — в материале «Ленты.ру».
«Любое знание автоматически искажает видение мира»
В массовой культуре вершиной развития технологий часто становится создание антропоморфного робота. Андроид внезапно и для самого себя, и для его создателей начинает чувствовать, что ставит перед зрителем или читателем сразу несколько этических проблем, связанных с взаимоотношениями человека и машины.
Однако интеллект искусственного человека имеет мало общего с тем, что современные ученые называют искусственным интеллектом — способностью системы интерпретировать внешние данные, самообучаться и с их помощью достигать определенных целей и решать определенные задачи.
Андроиды из кино функционируют по трем законам робототехники, которые сформулировал Айзек Азимов, главный из которых — не причинять человеку вред самостоятельно и не допускать своим бездействием того, чтобы он был причинен. При этом внезапное нарушение роботом хотя бы одного из законов или его неожиданная интерпретация зачастую становятся завязкой сюжета.
Сегодня искусственный интеллект — это не фантазия, а реальность, поэтому, хоть в основе его функционирования и остаются эти законы, ориентироваться на такие расплывчатые формулировки он не может. Кроме того, миру знакомо множество этических проблем, для которых люди сами до сих пор не нашли однозначного решения. Например, классическая «проблема вагонетки».
Тяжелая неуправляемая вагонетка несется по рельсам. На пути ее следования находятся пять человек, привязанные к рельсам сумасшедшим философом. К счастью, вы можете переключить стрелку — и тогда вагонетка поедет по другому, запасному пути. К несчастью, на запасном пути находится один человек, также привязанный к рельсам. Каковы ваши действия?
Процесс обучения, в результате которого система учится принимать решения, основывается на опыте исследователя и во многом на его представлениях о том, как поступать правильно, а как неправильно. Это значит, что искусственный интеллект теоретически может использоваться и во благо, и во вред человеку или всему человечеству. Поэтому вопросами этики для вычислительной системы сегодня занимаются не только сами исследователи, но и чиновники.
Этические кодексы
Вопросами этики искусственного интеллекта, к примеру, озаботились американские военные. В феврале Пентагон официально принял свод этических правил, которыми будет регулироваться использование ИИ в вооружении. Разработка принципов для боевых роботов заняла больше года. В итоге чиновники решили, что искусственный интеллект должен быть ответственным, справедливым, отслеживаемым, надежным и управляемым (responsible, equitable, traceable, reliable, governable). Последний принцип подразумевает, что человек сможет отключить робота, если тот покажет «незапланированное поведение». В Пентагоне пообещали, что искусственный интеллект, который не соответствует этим критериям, в разработке оружия использовать не будут. При этом в США (а также в России и в Корее) уже начали разработки беспилотников с системой искусственного интеллекта.
Использование подобных технологий для вооружения (даже при наличии этических принципов) вызывает сегодня споры и имеет много неоднозначных оценок: некоторые опасаются того, что самообучающийся механизм сможет обойти ограничения и в итоге захватит человечество. В менее далекой перспективе, как отмечал профессор лингвистики Ноам Хомский, использование ИИ военными может привести к новой гонке вооружений.
Конечно, искусственный интеллект применяется не только военными. Его используют в системах распознавания лиц и для поиска преступников, для геологической разведки, для приема людей на работу, для диагностики заболеваний, а иногда просто для развлечения — например, чтобы посмотреть, как бы человек выглядел, будь он противоположного пола или другой расы.
Свои правила регулирования искусственного интеллекта предложили и в Ватикане. Папа Римский Франциск неоднократно обращал внимание компаний Кремниевой долины на то, что технологии могут привести к «новому варварству», при котором закон сильнейшего будет превалировать над принципом общего блага.
В этическом кодексе, который Ватикан представил в начале 2020 года, утверждается, что искусственный интеллект должен уважать частную жизнь людей, исключать возможность предвзятости, а также гарантировать соблюдение прав всех людей. Ватиканский кодекс подписали Microsoft и IBM — одни из лидеров в разработке подобных технологий.
Совет Европы по искусственному интеллекту (CAHAI) тоже занимается вопросом регулирования технологии. Его представители подчеркивают, что эта работа связана не с замедлением или ограничением прогресса, а с сохранением всех прав человека в эпоху все большей и большей цифровизации.
Важную роль в формировании принципов, на которые будут опираться создатели технологий, играют и российские ученые. Андрей Кулешов из Центра НТИ по направлению «Искусственный Интеллект» на базе МФТИ, Анна Абрамова из МГИМО и эксперты национальных технический комитетов по стандартизации Андрей Игнатьев (ТК 164) и Григорий Маршалко (ТК 26) на международной конференции International Conference on Engineering Technologies and Computer Science (EnT) представили конкретные методики и рекомендации для разработчиков ИИ.
Шесть базовых принципов
По мнению российских ученых, разработчикам стоит придерживаться принципа предосторожности и определять те области, принятие решений в которых нельзя делегировать машинам, а также не перекладывать ответственность на ИИ и не заставлять его принимать этически сложных решений. Они изложили шесть базовых принципов, на которые, по их мнению, следует опираться при создании подобных технологий.
В первую очередь искусственный интеллект должен действовать в интересах общественного развития. В частности, сохранять духовные и культурные ценности, а также содействовать творческому и познавательному развитию человека. Отдельно ученые отметили, что использование ИИ не должно ограничивать многообразие и самобытность различных этносов и социальных групп.
При этом разработчики должны определять те области, в которых человек не может перекладывать принятие решений на машину. Кроме того, следует придерживаться принципа предосторожности и при возникновении проблем привлекать третью сторону для независимой оценки.
Во-вторых, необходимо знать и соблюдать законодательную базу. Ученые отметили, что разработчики ИИ всегда должны действовать в рамках закона, а также уважать существующие региональные и международные соглашения.
Третьим важным критерием российские исследователи посчитали то, что разработчики должны уважать «интересы общества и граждан», в частности, уважать честь и достоинство человека и исключать любые манипуляции со стороны системы. Искусственный интеллект не должен применяться для ограничения прав и свобод граждан, а также для тех или иных форм дискриминации.
К примеру, подобный случай произошел в компании Amazon и широко освещался в СМИ. Там искусственный интеллект решили использовать для подбора новых сотрудников, однако выяснилось, что он охотнее брал на работу мужчин, чем женщин. Выяснилось, что причина подобных решений крылась в том материале, на котором ИИ обучался: ему предоставили данные о найме новых сотрудников за несколько лет, тогда среди них действительно было больше мужчин. Именно поэтому в процессе обучения у системы возникла «предвзятость». Сегодня ИИ становится ответственным за все большее и большее количество принятых решений, поэтому без этического регулирования его предвзятость может стать серьезной проблемой.
Российские ученые также отметили, что систему нельзя заставлять делать нравственный выбор и что ответственность за все последствия ее решений в любом случае несут люди. При этом ИИ должен работать таким образом, чтобы человек всегда мог отменить любые его действия и решения.
В-четвертых, создатели ИИ обязаны «действовать ответственно и добросовестно». Разработчики должны понимать, что несут ответственность за результаты своей профессиональной деятельности, и внимательно относиться к тому, как ИИ влияет на общество.
Кроме того, им следует избегать субъективности, когда они оценивают функционирование ИИ. При обсуждении системы с третьей стороной важно предоставлять объективные факты, а не мнения, суждения и точки зрения.
В-пятых, разработчики должны проявлять профессионализм и компетентность, в том числе следовать принятым в профессиональном сообществе практикам и использовать системы ИИ строго в соответствии с заявленным предназначением, а также поддерживать должный уровень профессиональной компетенции сотрудников и регулярно проводить соответствующую сертификацию специалистов.
Шестым критерием ученые назвали необходимость укреплять доверие к технологиям и рынкам. Разработчики должны повышать общественную грамотность в вопросах ИИ, предоставлять полную информацию о возможностях ИИ и существующих ограничениях, а также информировать о возникающих в ходе разработки этических проблемах. Предполагается, что их нужно выносить на общественное обсуждение.
Российские ученые уверены, что эти принципы помогут для разработки узкоспециальных систем: к примеру, ИИ, используемые в медицине и в полиции, и обучаются, и работают по-разному. Использование технологий ИИ в медицине — одна из ключевых задач на сегодня, однако доверие к компьютерным системам невысоко, так как цена ошибки может быть очень велика. Даже признанные успешными проекты в медицине пока могут подключаться только в качестве второго авторитетного мнения, пока принятие решений остается за человеком.
Анна Абрамова, заведующая кафедрой цифровой экономики и искусственного интеллекта группы компаний АДВ в МГИМО, уверена, что правила для разработчиков направлены не на то, чтобы замедлить технологическое развитие или помешать ему. По ее мнению, «риски слишком высоки», а мягкое регулирование необходимо для того, чтобы обезопасить и защитить людей от возможных негативных последствий повсеместного внедрения ИИ.