В России впервые уволили работника за ИИ-пранк. Где грань между шуткой и «фейком» — разъяснил юрист
© Коллаж «Теперь вы знаете», создано при помощи нейросети
Есть ли в России ответственность за генерирование фальшивых видео с ИИ
Если коротко, то нет. Отдельно такого закона не существует, как не существует пока и вообще закона о регулировании искусственного интеллекта.
Отдельные законодательные инициативы обсуждают в Госдуме, но их принятие может занять от нескольких месяцев до нескольких лет (как это было с законами, регулирующими майнинг и криптовалюты).
Однако пока хватает и других, вполне действующих законов, под которые при определенных обстоятельствах может попасть тот или иной нейросетевой контент. И отвечать автор фейковых роликов будет не за сам факт использования искусственного интеллекта для своих поделок, а за те цели, которые при этом преследовал, и за тот эффект, которого вольно или невольно достиг.
Так что за каждым вирусным видео может стоять дело с реальными статьями.
Когда нейровидео становится нарушением
Без согласия человека использовано его лицо/персональные данные
Любое обнародование и последующее использование изображения гражданина (включая видео) допустимо только с его согласия.
Лицо, голос, мимика — все это не просто часть личности, а персональные данные, которыми вы имеете право ни с кем не делиться. Но именно они чаще всего становятся объектом переработки в нейросетях.
Cтатья 152.1 Гражданского кодекса запрещает обнародование и дальнейшее использование изображения гражданина без его согласия. Под «использованием» понимаются любые формы применения, включая создание на основе оригинала производных материалов, каковыми являются и сгенерированные нейросетью видео (дипфейки).
Есть исключения — общественный интерес, съемка на открытых мероприятиях, позирование за плату. Но даже в них пространство для маневра ограничено. «Использование размещенных в соцсетях фотографий и видео для обучения ИИ-моделей не подпадает ни под одно из этих исключений», — уточняет Палюлин.
Однако именно тут все очень зыбко: доказать, что для обучения использовались именно снимки из соцсетей, почти невозможно, даже если человек узнал себя в чужом ролике. Так что пока все буксует о технологическую непрозрачность.
Аналогично в серую зону закона попадают любые ролики, использующие другие персональные данные людей без их согласия, включая адреса, личные обстоятельства, сведения о частной жизни.
За нарушение возможны требования удалить ролик, запретить дальнейшее распространение и взыскать компенсацию морального вреда. Спецкатегории (здоровье, убеждения) и биометрия (включая оцифрованное лицо и голос) защищены жестче. За нарушения — штрафы, повышенные с 2024 года до 300 000 рублей, если обнародованы оказались данные взрослых, и до 700 000 рублей, если замешаны несовершеннолетние.
© «Теперь вы знаете» / создано при помощи нейросети
Задеты честь и достоинство
Честь и достоинство — для кого-то старомодные понятия. Но в суде они все еще охотно используются. Гражданский иск за клевету может прилететь автору нейровидео, если его герой:
- предстает там в унизительном виде;
- распространяет порочащие его или чужую репутацию сведения;
- унижает чужое достоинство или совершает иное правонарушение, которого в реальности не было.
Человек, чей образ был использован, вправе требовать опровержения распространенных порочащих сведений, а также компенсации морального вреда и убытков. Даже если видео носит юмористический характер, суд может признать его порочащим, если сочтет, что оно унижает достоинство личности или подрывает репутацию в глазах третьих лиц.
Размер компенсации зависит от последствий. Юрист посоветовал ориентироваться на диапазон от 50 000 до 500 000 рублей, исходя из судебной практики и похожих кейсов.
Нарушены авторские и смежные права
Вопрос авторских прав в эпоху нейросетей до сих пор один из самых острых и не имеющих единого ответа.
Вот, предположим, один человек нарисовал картину, другой обучил на этой картине нейросеть, а третий заказал ей картину, которую ИИ написала в том же стиле и даже с повторяющимися элементами. Конечному пользователю может прилететь иск о нарушении авторских прав, хотя, скорее всего, нарушение началось уже этапе отбора данных для обучения модели.
С видео все работает аналогично. Есть образы, которые защищены авторским правом, — герои кино и мультипликации, дизайны и стили, музыкальные вставки, тексты, видеоряд. И есть отдельные люди и службы, которые отслеживают нарушения в этой области. Нарваться на штраф легче легкого, необязательно даже залетать в тренды соцсетей — сработает и поиск по ключевым словам.
Если вы не знаете, кому принадлежат права на изображения или контент, или тем более знаете, что используете объекты, защищенные авторским правом, лучше даже не загружать их в качестве референсов — не то что публиковать результат.
Еще один тонкий момент — использование в видео чужих товарных знаков. При этом неважно, в позитивном или негативном ключе. В одном случае правообладатель может подать в суд за незаконное использование защищенного бренда для личного продвижения, в другом — за репутационные риски, которые в случае бизнеса могут обернуться многомиллионными убытками.
Ролик можно принять за реальные новости
Когда нейровидео мимикрирует под новостной репортаж или официальное заявление и при этом никак не обозначается, что это генеративный ролик, ответственность переходит из зоны этики в зону закона. Особенно если видео распространяет недостоверную информацию на общественно значимые темы или приводит к негативным последствиям.
Статья 13.15 КоАП РФ («Злоупотребление свободой массовой информации») запрещает распространение заведомо недостоверной общественно значимой информации под видом достоверных сообщений, если это повлекло создание помех для функционирования критической инфраструктуры или иные тяжкие последствия. Нейрофейк с публичной фигурой, распространенный в формате, имитирующем новостной репортаж, может подпадать под эту норму.
Здесь решающее значение имеет форма: не важно, кто создал видео — нейросеть или человек с видеоредактором. Важно, выглядит ли оно как новость и способно ли вызвать общественный резонанс. Ответственность здесь наступает не за технологию, а за эффект, который она производит.
Показательным в этом плане стал случай из Приморья. В декабре 2025 года в местных пабликах завирусилось видео, на котором тигр якобы нападает на мужчину, который чистил автомобиль. Инцидент якобы произошел в Лучегорске, следовало из подписей под видео. На самом деле ролик был сгенерирован в нейросети, и этот факт очень заинтересовал министерство лесного хозяйства и охраны окружающей среды Приморского края. За создание общественно опасного ролика, который мог бы привести к необоснованной агрессии к редким животным, его автору грозит штраф до 100 000 рублей.
Видео нарушает общественный порядок
Есть и менее очевидные статьи, которые теоретически могут стать отправной точкой для раскручивания маховика закона. Граница тонка: там, где зритель смеется, суд может увидеть демонстративное нарушение порядка.
Например, если в сгенерированном ролике герой (неважно, имеющий ли реальный прототип) грязно ругается, оскорбляет кого-то, демонстрирует непристойности или, например, пропагандирует что-то запрещенное, последствия могут быть от административных до уголовных.
В этом случае использование ИИ будет лишь инструментом, но не факт, что это рассмотрят как отягчающее обстоятельство.
«Действия, которые выражаются в неуважении к обществу и сопровождаются распространением информации, демонстративно нарушающей общественный порядок — например, с применением брани, — могут расценить как мелкое хулиганство» — уточняет Палюлин.
Особенно аккуратными нужно быть, если ролик работает на дискредитацию или разжигание розни в отношении какой-то группы лиц. И неважно, кто именно стал объектом насмешек и публичного унижения (а именно так рассматриваются выложенные в свободный доступ в интернете ролики). Русские и иностранцы, православные и мусульмане, таксисты и домохозяйки — все социальные группы в этом плане равны.
Основные нормы, применимые к нейрофейкам в таких случаях, это положения Федерального закона № 114-ФЗ «О противодействии экстремистской деятельности». Наиболее вероятными будут обвинения в «возбуждении социальной розни» или «пропаганде исключительности, превосходства либо неполноценности человека» по признаку принадлежности к социальной группе.
Если видео высмеивает чиновников или военных, придавая им унизительный или агрессивный образ, его также могут квалифицировать как экстремистский материал. Не потому, что власть не терпит иронии, а потому что закон устроен именно так: социальные группы, связанные с государством, тоже защищены от розни.
© «Теперь вы знаете» / создано при помощи нейросети
Уголовные пределы: умысел и последствия
В некоторых случаях нейровидео может стать поводом для уголовного дела. За последние годы статей, которые обозначают такие виды правонарушений, стало больше.
Особенно осторожным нужно быть с использованием в нейросетевых роликах военной тематики. Если генерацию могут по ошибке принять за реальное видео из зоны боевых действий, если она содержит недостоверные сведения об армии или военных, дискредитирует их или использует их образ для распространения ложной общественно значимой информации, это прямой состав преступления по статье о «Дискредитации армии» (280.3 УК РФ).
Палюлин отмечает, что при этом следствию нужно будет установить не только факт распространения ролика, но и прямой умысел, направленный на подрыв авторитета или доверия к государственным институтам, а в ряде случаев — также тяжелых негативных последствий, выходящих за рамки розыгрыша.
Аналогично и при использовании нейросетей для совершения любого преступления. Если дипфейк использовали, чтобы развести на деньги старушку под видом ее внука, судить будут не за дипфейк, а за мошенничество, пусть и с использованием компьютерных технологий как отягчающим обстоятельством.
Если с помощью алгоритмов подставили чужое лицо в порноролик или сгенерировали собственный эротический контент — прилетит за изготовление и распространение порнографии.