Угрозы искусственного интеллекта (ИИ) исходят не от самих нейросетей, а от приложений, созданных на их основе. Об этом в разговоре с «Российской газетой» («РГ») заявили эксперты из РФ.
Узнайте больше в полной версии ➞Специалист по машинному обучению Илья Гусев напомнил, что корпорация Microsoft ранее запретила своим пользователям применять китайский нейросетевой сервис DeepSeek. По словам Гусева, это нормальная мировая практика, и DeepSeek не является единственной запрещенной нейросетью. Однако автор подчеркнул, что сама по себе ИИ-модель не несет опасности.
«Угрозы исходят не от нейросетей, а от приложений на их основе», — объяснил специалист. По его словам, при самостоятельном развертывании модели никаких угроз и рисков нет.
«Безопасность конфиденциальных данных можно обеспечить при использовании больших языковых моделей в закрытом контуре компании — то есть на собственной или доверенной облачной инфраструктуре», — заметил генеральный директор MWS AI Денис Филиппов. Эксперт заключил, что нейросети типа DeepSeek и ChatGPT могут решать задачи, которые не требуют взаимодействия с чувствительными данными.
При этом Дмитрий Аникин из «Лаборатории Касперского» обозначил опасность нейросетей. Угрозы могут исходить из-за кибератак или ошибок на этапе разработки сервиса. Профессор Кафедры мировых политических процессов МГИМО Елена Зиновьева заметила, что уязвимости в системах ИИ несут в себе не только технические, но и стратегические риски.
Ранее Папа Римский Лев XIV назвал ИИ одной из важнейших проблем человечества. По мнению понтифика, нейросети создают трудности для защиты «человеческого достоинства, справедливости и труда».