Роботов поставили в ситуацию морального выбора

Создав для роботов ситуацию этического выбора — кого из двух человек, одновременно попадающих в опасность, надо спасать — ученые выяснили, что больше всего смертей приносит не сам выбор, а слишком долгие размышления машины. О своем эксперименте Алан Винфилд (Alan Winfield) из Бристольской лаборатории робототехники рассказал на конференции по автономным роботам, которая прошла 2 сентября в Бирмингеме. Кратко об исследовании сообщается в интернет-издании New Scientist.

Винфилд запрограммировал робота удерживать другие автоматы (которые изображали людей) от падения в яму. Такой эксперимент представляет собой, по сути, иллюстрацию к первому закону робототехники А. Азимова: «Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред».

Сначала у машины проблем не возникло: как только «человек» приближался к яме, робот быстро отодвигал его от опасного места. Но когда ученые добавили второй автомат, приближавшейся к ловушке с той же скоростью, перед роботом встала дилемма — кого спасать первым. Иногда ему удавалось удержать одного «человека», пару раз — двоих, но в 14 случаев из 33 робот столько времени тратил на этические размышления, что оба «человека» падали в яму.

Винфилд признает неутешительные результаты своего эксперимента и подчеркивает, что роботы все еще остаются «этическими зомби»: они, способны соблюдать определенный кодекс поведения, но не понимают его моральные основания.

Научить машины принимать этические решения могут специалисты по военной робототехнике. Рональд Аркин (Ronald Arkin) из разработал набор алгоритмов («этический руководитель»), который призван помочь роботам действовать на поле боя: в каких ситуациях прекращать огонь, в какой обстановке (около школы или больницы, например) стремится свести к минимуму количество жертв.

Аркин считает, что научить морали военных роботов будет проще всего, так как законы войны являются четкими и прописаны в международных договорах. В отличие от живых солдат, подверженных эмоциям и аффектам, машины никогда не нарушат эти законы.

Обсудить
Наука и техника00:0416 октября
Беспилотник Northrop Grumman X-47B

Лягут все

Россия испугалась американских комплексов глобального удара
Наука и техника

Разумная роскошь

Больше не нужно выбирать между красотой и функциональностью
20:1316 октября
«Мне довелось убивать русских»
Жажда крови, шепот смерти и грязная работа головорезов в Сирии
Смерть в песках
Зачем богатейшие страны мира устроили кровавую мясорубку в нищем Йемене
Пиво и сигареты
Тайная жизнь Северной Кореи
Карнавальные фигуры, изображающие Реджепа Тайипа Эрдогана и Дональда ТрампаЯ твоих дипломатов арестовывал
Чем грозит крупнейший в истории конфликт между США и Турцией
«Бабушка спрашивает, заставляют ли мусульмане сменить веру»
История москвички, которая переехала в Объединенные Арабские Эмираты
Клюв закрой
Убийца инвалида гулял на свободе, пока не заговорил попугай
Тайное оружие наркобаронов
У них есть танки, суперкомпьютеры и беспилотники
Старая школа
В молодости родители были куда круче, чем мы
Редкие машины, которые вытащили с того света
Автомобили, возрожденные из пепла
Машины против всех
Автомобили против снегоходов, лошадей и других неожиданных противников
Автомобили против поездов
Как машины отняли хлеб у железных дорог в США
Автобусы-трансформеры
«Икарусы» с трапом, гармошкой и колесами на любой вкус
Братва помнит
Чем украшают могилы криминальных авторитетов
Безмолвие смерти
Жуткие фото городов-призраков
Интим предлагать
Секс стал способом решения квартирного вопроса
«Мы — не дойные коровы»
Почему москвичкам не стоит жить с приезжими