20 декабря 2025, 00:01

Трендовая обработка фото в нейронках оборачивается сливом личных данных. Как это происходит и как избежать

Загружая снимок для обработки в нейросеть, мы редко задумываемся, что, помимо фото, отдаем алгоритму и свое цифровое досье. ИИ не только исправляет несовершенства и меняет наряд — он также собирает в свою базу важнейшие данные о человеке. Разобрались с экспертами, как это работает, чем грозит и в каких случаях ваши фото могут стать учебным материалом для нейросетей. А главное — как этого избежать.
Трендовая обработка фото в нейронках оборачивается сливом личных данных. Как это происходит и как избежать

© «Теперь вы знаете» / создано при помощи нейросети

Какие данные собирает нейросеть

Сбор данных начинается с метаданных EXIF (Exchangeable Image File Format — стандарт хранения данных прямо в файле фото). В них содержится информация об условиях съемки. В первую очередь это базовые параметры вроде модели камеры или телефона, даты и места создания фото.

Но, как отмечает фотограф Анна Амарова, ИИ может «вытащить» из файла и более тонкие технические детали: динамический диапазон, резкость, шум, тип объектива, показатели выдержки и диафрагмы.

Во многом благодаря анализу именно этих данных ИИ может сгенерировать при соответствующем запросе изображение, как будто бы снятое конкретной камерой и объективом.

Анна Амарова
профессиональный фотограф, член The International Federation of Photographic Art (FIAP), член Русского географического общества

Следующий этап — глубокий анализ содержания изображения с помощью компьютерного зрения.

ИИ распознает объекты, лица, эмоции, возраст, пол, сцены (пляж, лес, праздник), стиль одежды и даже приблизительный социальный статус героя снимка.

Затем нейросеть присваивает теги («улыбка», «закат») каждой детали изображения, что превращает фотографию в удобный материал для машинного обучения.

Параллельно идет сбор данных о самом пользователе: история загрузок, IP-адрес, регион и устройство. У активных пользователей, особенно фотографов, формируется уникальный цифровой творческий профиль.

Например, мой цифровой профиль может содержать информацию о том, что я снимаю интерьеры, архитектуру, пейзажи, предпочитаю центральную композицию и правило третей, в обработке стремлюсь к натуральным цветам в интерьере и архитектуре и насыщенным — в пейзаже.

Анна Амарова
фотограф

В каких случаях ИИ будет учиться на ваших фото

Пользователи часто не подозревают, что, загружая снимки в ИИ-сервис, они могут согласиться на их использование для обучения нейросетей. Как? Приняв пользовательское соглашение при регистрации.

Вы явно дали согласие. Часто это предустановленный и обязательный для принятия пункт... Формулировки типа «улучшение наших сервисов» или «развитие алгоритмов» обычно подразумевают именно это.

Mупегну Нзусси Кевин Грас
кандидат экономических наук

Эксперты отмечают, что бизнес-модель многих бесплатных ИИ-приложений построена на сборе данных.

Бесплатные версии часто предоставляются именно с целью получения материалов для обучения ИИ. И это касается не только фотографий, а вообще любых действий пользователей.

Анна Амарова
фотограф

Платная подписка на сервис не гарантирует, что ваши данные не станут учебным материалом. Информацию об этом нужно проверять в каждом конкретном соглашении.

Главные риски для пользователей выделила юрист по интеллектуальной собственности и преподаватель РАНХиГС Ангелина Биль:

  1. Создание цифрового двойника. Ваши обезличенные фото могут использоваться для генерации похожих изображений.
  2. Нарушение авторских прав. Если ИИ скопирует черты чужой защищенной работы, а вы ее используете, правообладатель может подать в суд.
  3. Отсутствие защиты вашего авторского права. Изображение, созданное ИИ без творческого вклада человека, не защищается законом об авторском праве.

Как защитить свои фото

Полностью исключить риски нельзя, но их можно значительно снизить, если развить цифровую грамотность. Также могут помочь эти три способа:

1. Осознанно выбирать ИИ-сервисы и читать пользовательские соглашения. «Особое внимание стоит уделить разделам: "Порядок использования данных" (Data usage), "Права на пользовательский контент" (Content rights) и "Обучение ИИ" (AI training, Machine learning)», — советует Анна Амарова.

2. Чистить метаданные на фото. Удалить информацию о месте и параметрах съемки можно с помощью встроенных функций смартфона или через специальные приложения, объясняет Mупегну Нзусси Кевин Грас.

Есть и более продвинутые инструменты, которые манипулируют данными изображения, делая его непригодным для обучения ИИ, поделилась Ангелина Биль. Например, приложение Nightshade изменяет содержание снимка, а Glaze — визуальный стиль.

3. Использовать офлайн-программы. Они обрабатывают фото на устройстве, не отправляя их в облако. Анна Амарова в качестве примера приводит приложения от Topaz Labs — DeNoise и Sharpen.

Регулирование ИИ в России и мире

Сейчас в России есть лишь рекомендации по обучению нейросетей. Например, Кодекс этики, который приняли в 2021 году.

Что такое Кодекс этики?

Кодекс этики искусственного интеллекта — это свод основных правил для всех, кто работает с ИИ в России: разработчиков, компаний и пользователей.

В нем прописаны базовые принципы, которым должна следовать отрасль, — это ответственность, предосторожность, риск-ориентированность, безопасность, подконтрольность, человекоцентричность, нравственность, сотрудничество, недискриминация и поднадзорность.

Соблюдение этого кодекса носит рекомендательный характер.

© «Теперь вы знаете» / создано при помощи нейросети

Однако ФСБ к 2026 году должна представить методы анализа ИИ-моделей. Нейросети, которые успешно пройдут такую проверку, получат подтверждение о «допустимости безопасного использования».

Помимо этого, Минцифры разрабатывает Цифровой кодекс — закон, который установит единые стандарты. Он должен прописать, какие данные можно использовать для обучения алгоритмов ИИ, как защищать информацию и какие права есть у пользователей.

Проблема регулирования нейросетей назрела не только в России. Еще в конце 2024 года Италия оштрафовала OpenAI (создатель ChatGPT) на €15 млн, а в 2025 году Ирландия начала расследование против соцсети X за использование данных пользователей без явного согласия.