Наука и техника
10:01, 16 мая 2025

В России объяснили исходящие угрозы от ИИ

«РГ»: ИИ-угрозу могут нести не сами нейросети, а созданные на их основе сервисы
Андрей Ставицкий (Редактор отдела «Наука и техника»)
Фото: Екатерина Якель / «Лента.ру»

Угрозы искусственного интеллекта (ИИ) исходят не от самих нейросетей, а от приложений, созданных на их основе. Об этом в разговоре с «Российской газетой» («РГ») заявили эксперты из РФ.

Узнайте больше в полной версии ➞

Специалист по машинному обучению Илья Гусев напомнил, что корпорация Microsoft ранее запретила своим пользователям применять китайский нейросетевой сервис DeepSeek. По словам Гусева, это нормальная мировая практика, и DeepSeek не является единственной запрещенной нейросетью. Однако автор подчеркнул, что сама по себе ИИ-модель не несет опасности.

«Угрозы исходят не от нейросетей, а от приложений на их основе», — объяснил специалист. По его словам, при самостоятельном развертывании модели никаких угроз и рисков нет.

«Безопасность конфиденциальных данных можно обеспечить при использовании больших языковых моделей в закрытом контуре компании — то есть на собственной или доверенной облачной инфраструктуре», — заметил генеральный директор MWS AI Денис Филиппов. Эксперт заключил, что нейросети типа DeepSeek и ChatGPT могут решать задачи, которые не требуют взаимодействия с чувствительными данными.

При этом Дмитрий Аникин из «Лаборатории Касперского» обозначил опасность нейросетей. Угрозы могут исходить из-за кибератак или ошибок на этапе разработки сервиса. Профессор Кафедры мировых политических процессов МГИМО Елена Зиновьева заметила, что уязвимости в системах ИИ несут в себе не только технические, но и стратегические риски.

Ранее Папа Римский Лев XIV назвал ИИ одной из важнейших проблем человечества. По мнению понтифика, нейросети создают трудности для защиты «человеческого достоинства, справедливости и труда».

< Назад в рубрику