24 января 2026, 02:06

Нейрослоп-видео оказались вне закона. Почему «танец как у блогера» может закончиться штрафом или даже судом

В соцсетях новый вирусный тренд: пользователи с помощью нейросетей вроде Kling «оживляют» свои фото, заставляя их танцевать. Проблема в том, что движения для этих роликов массово копируют реальных блогеров вроде Винни Макса, даже не спрашивая их разрешения. С другой стороны, многие интернет-звезды раскрутились, скрыв использование искусственного интеллекта для своих хитов. Мы узнали у юристов, могут ли привлечь за чужие танцы и музыку для ИИ-генераций.
Нейрослоп-видео оказались вне закона. Почему «танец как у блогера» может закончиться штрафом или даже судом

© Коллаж: «Теперь вы знаете», создано при помощи нейросети

Чужие танцы: как работает схема и почему автор не идет в суд

Технически тут все просто. Пользователь загружает в нейросеть (например, Kling) свою фотографию и референсное видео с танцем реального человека. Алгоритм «натягивает» движения на статичную картинку, и вот уже вы (или ваш аватар) лихо отплясываете под хиты.

В Сети основой для многих таких дипфейков становятся ролики блогера Винни Макса, который прославился харизматичной хореографией. Авторы ИИ-контента получают сотни тысяч просмотров, фактически присваивая его пластику и артистизм.

Сам Винни Макс в интервью «Беспощадному пиарщику» признался, что никто с ним такое творчество не согласовывает. Но и он относится к этому философски.

Никто не согласовывал, одна девушка только спрашивала разрешения, но я, понимая лавинообразность и стремительность развития событий, отпустил ситуацию. <...> Я понимаю, что кто-то, наверное, на этом как-то зарабатывает. Ну и для меня плюсы имеются, конечно, потому что хайп пропорционально множится.

Винни Макс
блогер

Но, если бы на месте Винни Макса оказался бы какой-нибудь крупный артист или лейбл, не факт, что и он отнесся бы так же снисходительно.

Что говорит закон об ИИ-контенте

В России автором всегда считается человек, а ИИ — лишь инструментом, как молоток или кисть. Проблемы начинаются, когда кисть слишком точно копирует чужую работу. В случае с ИИ-танцами нейросеть буквально перерисовывает движения живого человека. С музыкой — генерирует мелодию, похожую на хит известного артиста.

ИИ использует данные из существующих источников — песен, текстов, изображений. Если сгенерированная песня содержит элементы, идентичные чужой работе (мелодия, текст или стиль), это квалифицируется как заимствование. В таких случаях суды признают нарушение авторских прав оригинального автора.

Магомедали Алиев
юрист бюро «Палюлин и партнеры»

Права на сгенерированный материал принадлежат вам, но только при условии оригинальности. Роспатент и суды отказывают в защите чистого ИИ-контента, без человеческого участия.

Как могут наказать за такое нейротворчество

Даже если вы не планировали зарабатывать на контенте, а просто выложили ролик ради шутки, ответственность наступает с момента публикации. И в случае чего ИИ не сможет защитить.

Если ИИ заимствует элементы из чужой работы, владелец оригинала подаст иск. Для песен это сходство с треком известного исполнителя (например, из репертуара Газманова) приведет к требованию компенсации. В случае с текстами или изображениями — то же самое: если ИИ скопирует блог или дизайн, штрафы достигают от 10 тысяч до 5 млн рублей.

Магомедали Алиев
юрист

Кроме того, если контент содержит оскорбления, разжигание ненависти или ложные сведения, то нарушителя тоже привлекут к ответственности.

Например, дипфейк с публичной фигурой, могут расценить как клевету или нарушение права на изображение. В этом случае, по словам юриста, грозит штраф до 1 млн рублей или даже уголовная ответственность.

Платформы вроде VK блокируют такие материалы, а Роскомнадзор требует их удалять.

© «Теперь вы знаете», создано при помощи нейросети

Как платформы борются с ИИ-контентом

Крупные площадки, такие как YouTube, VK или стриминговые сервисы, используют алгоритмы (например, Content ID) для поиска плагиата. Если сгенерированный трек или видео совпадет с защищенным авторским правом контентом, его могут удалить, а аккаунт заблокировать.

YouTube при этом борется и просто с низкопробными ИИ-видео, которые могут и ничего не нарушать. Для понимания, насколько они уже заполонили видеохостинг: 20% всего контента там сгенерировано нейронками.

Таким образом, безопаснее всего вообще не использовать чужие популярные работы (песни, танцы) как прямые референсы для генерации. Чем уникальнее ваш запрос, тем ниже риск плагиата.

Почему аудитория не прощает обман

Даже если до суда дело не дойдет, есть еще один риск — разочарование подписчиков. Пользователи не любят, когда их обманывают, и все лучше распознают ИИ-контент.

56%

россиян хуже относятся к авторам и брендам, которые скрывают использование нейросетей, согласно данным агентства Lampa и холдинга Rambler&Co

Яркий пример — кейс российской музыкальной группы Not Band. Она прославилась в соцсетях вирусными каверами с использованием метода полифонии (это когда с помощью голоса или множества инструментов создают единую музыкальную картинку, причем записывают каждый трек отдельно и потом сводят) и начала продавать контент. Но фанаты заподозрили, что каверы делали с помощью нейросети Suno.

В ответ на разоблачение группа начала банить недовольных и получила волну хейта. Подписчики указывали, что они не против использования ИИ как такового, но предпочли бы не обманываться, восхищаясь вокальным «талантом» исполнителей, который на самом деле не более чем талант в промптинге.