Самоуправляемые боевые роботы, которым в будущем предстоит участвовать в войнах и вооруженных конфликтах, должны "жить" в соответствии со строгими правилами, чтобы не представлять угрозу для человечества, а также учиться этике ведения войны. Такие выводы, как сообщает The Times, содержатся в докладе, подготовленном Калифорнийским государственным политехническим университетом для ВМС США.
Узнайте больше в полной версии ➞Данное исследование, как уточняет издание, эта первая серьезная работа, посвященная этике поведения боевых роботов, всерьез рассматривающая их в качестве солдат, способных принимать самостоятельные решения на поле боя. Причем, в докладе содержатся выводы по поводу того, что познавательная деятельность робота в перспективе может превзойти человеческую.
По словам представителя университета, мнение о том, что робот способен делать лишь то, на что он запрограммирован, является устаревшим. Современное программное обеспечение разрабатывается множеством специалистов. При этом отдельные участники таких проектов могут не знать особенностей программы в целом. Соответственно, отдельные элементы программного кода в сочетании могут дать самый неожиданный результат без соответствующей практической проверки.
Ученые также предлагают свое видение решения проблемы. По их мнению, новые роботы не должны сразу отправляться на поле боя, а предварительно проходить период обучения, усваивая, что является правильным, а что неправильным. Кроме этого, в своем исследовании они подняли ряд других спорных вопросов, касающихся ответственности за последствия действий роботов, борьбы с хакерами, а также необходимости наличия функции самоуничтожения.