В OpenAI и Microsoft рассказали, что качество хакерских атак улучшилось благодаря искусственному интеллекту (ИИ) и большим языковым моделям (LLM). Об этом сообщается на сайте Microsoft.
Узнайте больше в полной версии ➞«Группы киберпреступников, субъекты угроз на национальном уровне и другие злоумышленники изучают и тестируют различные технологии ИИ по мере их появления, пытаясь понять потенциальную ценность для своих операций», — заявили представители компаний. Аналитики выделили группы хакеров из России, Северной Кореи, Ирана и Китая, который активно пользовались новыми технологиями.
Так, северокорейская хакерская группа Thallium использовала LLM для исследования публично сообщаемых уязвимостей и целевых организаций. Иранская команда Curium применяла ChatGPT и прочие чат-боты для написания кода вирусных программ и создания фишинговых писем.
В Microsoft и OpenAI подчеркнули, что пока не обнаружили серьезных последствий, вызванных атаками с применением ИИ. Также разработчики ChatGPT заявили, что оперативно блокируют аккаунты, владельцев которых подозревают в создании вредоносного ПО. «ИИ может помочь злоумышленникам сделать свои атаки более изощренными, и у них есть ресурсы для этого», — заявила аналитик Microsoft Хома Хайятифар.
В конце января специалисты «Лаборатории Касперского» рассказали, что киберпреступники начали использовать чат-боты вроде ChatGPT для атак на пользователей интернета. В частности, хакеры создавали собственных чат-ботов XXXGPT и FraudGPT, помогающих в организации атак.