Международная ассоциация по фактчекингу GFCN запустила конкурс систем выявления дипфейков

Прием заявок для участия в Deepfake Detection Contest начнется в конце мая

Фото: АНО «Диалог Регионы»

На форуме «Технологии доверенного искусственного интеллекта» создателям систем обнаружения дипфейков со всего мира предложили проверить эффективность своего программного обеспечения. Конкурс Deepfake Detection Contest инициировала Международная ассоциация по фактчекингу Global Fact-Checking Network.

Для участия в конкурсе необходимо применить свою систему для выявления дипфейков на заранее подготовленном датасете материалов. Прием заявок начнется в конце мая 2025 года.

«Международный конкурс по выявлению дипфейков Deepfake Detection Contest позволит определить уровень развития систем, используемых в разных странах, и изучить новые методы противодействия фейкам. Результаты будут объявлены на международном форуме "Диалог о фейках 3.0" в ноябре этого года», — рассказал руководитель направления креативных проектов управления по противодействию недостоверной информации АНО «Диалог Регионы» Иван Серов.

По данным исследования GFCN, за 5,5 месяца 2025 года выявлено на 13 процентов больше общего количества дипфейков, обнаруженных за весь 2024 год, и в 3,9 раза больше, чем за весь 2023 год.

Несмотря на то, что технологии создания генеративного контента уже активно используются, создателей современных решений для борьбы с угрозой на рынке мало, подчеркнул директор филиала ФГУП НИИ «Квант» Дмитрий Бирин.

«Таких организаций, которые занимаются созданием детекторов, немного. При этом нет ни одной, у которой качество детектора является наилучшим для всех генераторов фейков. Поэтому важной задачей является создание комплексного решения, которое бы интегрировало достижения разных разработчиков в рамках лучшего универсального детектора», — добавил он.

Как отметил директор мегафакультета трансляционных информационных технологий ИТМО, руководитель исследовательского центра «Сильный искусственный интеллект в промышленности» Александр Бухановский, должна быть команда предметных специалистов, которая будет сопровождать внедрение технологии.

«Обязательно должны быть разные роли — эксперты и критики, которые будут тестировать нейросети не на простых тестах, а на каверзных вопросах», — уточнил Бухановский.

О том, какой подход к определению дипфейков в медиа и при фактчекинге наиболее эффективен, рассказала заместитель директора по развитию продуктов VisionLabs Татьяна Дешкина. По ее словам, чтобы определить, кто справляется лучше с определением дипфейка — искусственный интеллект или человек — в первую очередь нужно понимать, какие перед ним стоят задачи.

«Но в большинстве случаев я выступаю за синергию. Человек может ошибиться, поскольку не ожидает атаку и его можно спровоцировать на импульсивные действия. В этом случае нейросеть может стать мощным "помогатором", тем более что сегодня мы имеем дело с таким качеством подделок, что люди уже не могут отличить их от реальных изображений, видео или голоса», — заключила эксперт.

Лента добра деактивирована.
Добро пожаловать в реальный мир.