Россиянам дали совет по безопасному использованию нейросетей

IT-эксперт Драченин посоветовал не загружать в нейросети важные данные

Фото: Uli Deck / dpa / Globallookpress.com

Главное правило при работе с нейросетями — не загружать туда критически важные данные, сообщил эксперт по информационной безопасности, замгендиректора Staffcop Юрий Драченин. Такой совет он дал в беседе с «Лентой.ру» после утечки данных пользователей китайской модели искусственного интеллекта (ИИ) DeepSeek.

Ранее об обнаружении в сети конфиденциальной информации юзеров рассказала американская компания по кибербезопасности Wiz.

Все, что вы отправили в ИИ, может быть скомпрометировано, использовано против вас или даже продано. Это касается бизнес-документов, коммерческих тайн, персональных данных, даже обычных вопросов, ведь контекст ваших запросов тоже может многое сказать о вашей компании, проекте или стратегии

Юрий ДраченинIT-эксперт

Эксперт отметил, что ИИ-модели должны быть защищены на уровне архитектуры, но всегда есть риски уязвимостей или просто банального человеческого фактора.

«Все новое всегда вызывает интерес, и в таких ситуациях "белые" хакеры похожи на "черных" — сначала идет чистый азарт и исследование системы. В сфере кибербезопасности есть огромное количество пентестеров, которые при появлении чего-то нового сразу начинают проверять его на элементарные уязвимости — своеобразная "проверка на детский мат" в шахматах. И сказать, сколько людей успели провести такие проверки, добились тех же результатов и скачали базы, попросту невозможно», — поделился Драченин.

Ранее в Китае объявили о создании нейросети мощнее DeepSeek. Компания Alibaba Cloud заявила, что такой является их модель ИИ Qwen 2.5-Max.

Лента добра деактивирована.
Добро пожаловать в реальный мир.
Бонусы за ваши реакции на Lenta.ru
Как это работает?
Читайте
Погружайтесь в увлекательные статьи, новости и материалы на Lenta.ru
Оценивайте
Выражайте свои эмоции к материалам с помощью реакций
Получайте бонусы
Накапливайте их и обменивайте на скидки до 99%
Узнать больше