Фактчекинговый проект «Лапша Медиа» проверил видеовопрос президенту России Владимиру Путину от «самого себя» на прямой линии с помощью системы «Зефир», разработанной АНО «Диалог Регионы».
Узнайте больше в полной версии ➞Студент из СПбГУ обратился к главе государства с помощью дипфейка и спросил, правда ли, что у него много двойников. Вместе с тем он попросил уточнить, как глава государства относится к технологиям искусственного интеллекта.
Нейросетевые модели системы «Зефир» сработали с максимальной уверенностью в 76-78 процентов на сфабрикованные фрагменты длительностью более пяти секунд. Итоговая оценка системы с учетом особенностей методологии выявления дипфейков — 78 процентов.
Специалисты отметили, что созданный дипфейк оказался высокого качества, так как для воплощения идеи юноша взял реальную запись с участием президента в видеоконференции, состоявшейся 25 января 2021 года по случаю Дня российского студенчества.
«Ролик создан нейросетями и на хорошем уровне. Для создания качественных дипфейков существуют различные подходы, причем не всегда связанные с полной генерацией ИИ-контента. Как правило, для создания ролика подбирается актер, максимально похожий на целевую персону, на которую делается дипфейк. Лучший кандидат на эту роль — сам человек. Так и произошло с данным дипфейком», — прокомментировал начальник аналитического отдела АНО «Диалог Регионы» Сергей Маклаков.
Он добавил, что сегодня заметно растет количество таких атак, и такой формат становится популярнее. Речь идет именно о случаях, когда берут оригинальные видео из сети и с помощью липсинка и генерации речи создают очень правдободобные дипфейки с абсолютно реальным окружением. Это может быть дополнительным фактором «успеха» для введения пользователей в заблуждение.
«В связи с этой тенденцией, важно иметь возможность оперативно детектировать подобные фейки, чтобы минимизировать риски, когда ИИ и нейросети используют в менее добрых целях. Именно на это работает наша система "Зефир"», — подчеркнул Сергей Маклаков.