Наука и техника
20:26, 18 марта 2022

Раскрыто фундаментальное математическое ограничение искусственного интеллекта

Ученые Кембриджского университета раскрыли математическое ограничение нейронных сетей
Александр Еникеев (Редактор отдела «Наука и техника»)
Фото: Kim Kyung-Hoon / Reuters

Исследователи Кембриджского университета и Университета Осло раскрыли, что многие системы искусственного интеллекта являются нестабильными и совершают ошибки из-за фундаментальных математических ограничений. Об этом сообщается в статье, опубликованной в журнале Proceedings of the National Academy of Sciences.

Узнайте больше в полной версии ➞

Как пишут авторы работы, парадокс заключается в том, что существующие алгоритмы обучения делают искусственный интеллект на основе нейронных сетей, которые не способны к распознаванию и исправлению собственных ошибок, хотя теоретически стабильные нейронные сети возможны. Решение этого противоречия связано с предложенной в 2000 году математической проблемой Смейла, которая заключается в выяснении фундаментальных пределов искусственного и человеческого интеллекта.

Исследователи показали, что существует фундаментальные ограничения на алгоритмы обучения стабильных нейронных сетей, в том числе вероятностного, то есть использующего в какой-то момент генератор случайных чисел для получения результата, достоверного с некоторой вероятностью. Только в отдельных случаях возможны алгоритмы, способные обучить стабильную нейронную сеть с заданной точностью. Авторы предложили теорию классификации, которая описывает случаи, когда нейронные сети можно обучить для создания надежной системы искусственного интеллекта.

< Назад в рубрику