Актер Киану Ривз якобы смог предотвратить ограбление магазина и обезвредить преступника. Соответствующее видео появилось на YouTube-канале Corridor.
Узнайте больше в полной версии ➞На самом деле авторы канала использовали технологию deepfake, которая позволяет смонтировать видео какого угодно содержания с участием известного человека. Нейросеть вклеивает в ролик любой портрет по желанию создателя подделки.
«Меня так сильно обманули. Это удивительно, что я чувствую себя так глупо сейчас», — написал один из пользователей в комментариях. «Даже как человек, который, честно говоря, не знает, как звучит голос Киану, именно когда он заговорил, я понял, что это подделка. В остальном, черт возьми, это действительно хорошо», — подчеркнул второй.
Зимой 2018 года алгоритм deepfake вызвал ажиотаж среди голливудских звезд и политиков. Специалисты предположили, что фейковые ролики с участием президента США Дональда Трампа и других политиков могут стать причиной начала мировой ядерной войны.
Кроме того, администрация Reddit и некоторые порнохостинги заблокировали все видео, в которых якобы участвовали голливудские звезды, из-за возможных юридических последствий.