Настоящая опасность военного применения систем искусственного интеллекта (ИИ) заключается в их использовании для принятия решения о нанесении ядерного удара, передает Breaking Defense заявление 32-го заместителя министра обороны США Роберта Уорка.
Узнайте больше в полной версии ➞«Представьте, что в системе ядерного командования и контроля есть прогностическая система ИИ, которая запускается по определенным параметрам. Это гораздо, гораздо, гораздо более тревожная перспектива, чем все то, что вы можете придумать в терминах конкретного оружия», — сказал военный.
Американское издание отмечает, что такое развитие событий напоминает вероятный сценарий применения советско-российского комплекса автоматического управления массированным ответным ядерным ударом «Периметр».
Также Уорк привел пример, когда ИИ мог бы спровоцировать войну без прямого подключения к ядерным системам. В нем китайская сторона задумывается о нанесении американской стороне удара, основываясь на проведенном ИИ анализе оперативной обстановки, указывающем на подготовку в США ядерной атаки на Китай.
Согласно мнению бывшего заместителя министра обороны, военным необходим ИИ, однако не нужно преувеличивать его роль в конфликтах будущего.
В августе американские военные специалисты Адам Лоутер и Кертис МакГиффин заявили, что США необходим собственный аналог «Периметра» (на Западе известен как Dead Hand — «Мертвая рука»), поскольку потенциальные противники США вроде Китая и России располагают гиперзвуковым оружием и малозаметными крылатыми ракетами, а также используют ИИ, что резко сокращает имеющееся у Пентагона время на принятие решения о нанесении ответного удара.
В июне американское издание Defense Оne написало, что «Россия в конечном итоге потерпит неудачу в стремлении стать лидером в области ИИ из-за неспособности развивать культуру инноваций».