Исследователи Кембриджского университета и Университета Осло раскрыли, что многие системы искусственного интеллекта являются нестабильными и совершают ошибки из-за фундаментальных математических ограничений. Об этом сообщается в статье, опубликованной в журнале Proceedings of the National Academy of Sciences.
Как пишут авторы работы, парадокс заключается в том, что существующие алгоритмы обучения делают искусственный интеллект на основе нейронных сетей, которые не способны к распознаванию и исправлению собственных ошибок, хотя теоретически стабильные нейронные сети возможны. Решение этого противоречия связано с предложенной в 2000 году математической проблемой Смейла, которая заключается в выяснении фундаментальных пределов искусственного и человеческого интеллекта.
Исследователи показали, что существует фундаментальные ограничения на алгоритмы обучения стабильных нейронных сетей, в том числе вероятностного, то есть использующего в какой-то момент генератор случайных чисел для получения результата, достоверного с некоторой вероятностью. Только в отдельных случаях возможны алгоритмы, способные обучить стабильную нейронную сеть с заданной точностью. Авторы предложили теорию классификации, которая описывает случаи, когда нейронные сети можно обучить для создания надежной системы искусственного интеллекта.