Ученые Университета Массачусетса в Амхерсте разработали платформу для создания алгоритмов, которые должны предотвратить опасное поведение машин с искусственным интеллектом (ИИ) и не допустить причинения вреда человеку. Об этом сообщает издание Science Alert.
Узнайте больше в полной версии ➞Исследователи назвали алгоритмы селдоновскими — в честь персонажа серии научно-фантастических романов «Основание» Айзека Азимова. Хотя они не дают ИИ понимание морально-этических норм или того, что является благом для человека, они позволяют системе определить, какое поведение является нежелательным и не допустить его.
В качестве примера ученые приводят использование селдоновских алгоритмов для лечения диабета, когда автоматическая система контролирует инсулиновую помпу. В этом случае нежелательным поведением является то, что способствует критически низкому уровню инсулина в крови или гипогликемии. Исследователи также разработали алгоритм для системы прогнозирования среднего балла аттестата у студентов, чтобы избежать гендерных предрассудков, которые обнаруживались у некоторых других алгоритмов.
В октябре бывший разработчик Google Лара Нолан заявила, что оружие с искусственным интеллектом, способное принимать решение без человека, сможет уничтожить города мира за считаные секунды. Если в одном районе будет находиться много подобных систем, то существует вероятность «внезапной войны», так как они среагируют друг на друга почти моментально.