Мечты фантастов прошлых поколений, похоже, окончательно сбылись: все чаще от госуправленцев и глав крупных технологических корпораций можно услышать, что будущее уже наступило. Западные и отечественные фильмы начала тысячелетия приучили нас, что можно подделать документы человека, его фото, голос и даже отпечатки пальцев. Последним оплотом надежности оставалась идентификация человека по лицу. Сегодня эту технологию используют производители смартфонов, госорганы, банки и метрополитены. Технологию распознавания лиц нередко называют абсолютно безопасной, но мировые эксперты бьют тревогу: еще ни разу не случалось, чтобы хакеры не находили способа обмануть систему. Насколько на самом деле реальна угроза — разбиралась «Лента.ру».
Денис (имя изменено) — завсегдатай одного из форумов даркнета для профессиональных «вилочников». Так в букмекерских конторах называют игроков, которые ловят «вилки» — несоответствия в коэффициентах на спортивные события на разных площадках, что позволяет им делать беспроигрышные ставки. Для поиска «вилок» используются специальные платные программы.
«Проблемой всегда было то, что конторы ловят "вилочников", анализируя данные об их ставках, после чего блокируют их без объяснения причин. Зачастую даже не удается вывести выигрыш, — жалуется Денис. — Такие блокировки требуют регулярного создания новых личностей».
Раньше букмекеры идентифицировали нового пользователя по селфи с раскрытым паспортом в руках, но теперь практически все популярные в России конторы требуют видеоидентификации. Подделать паспорт — вполне решаемая для «вилочников» задача: заказать нарисованные документы, которые потребует букмекер, можно у специальных умельцев. Идентификация по видео всегда была для них проблемой. Теперь она, похоже, решена.
За фейковыми личностями, в которых технология превращает «вилочников» на время идентификации, стоят реальные люди, предполагает Денис: чтобы схема работала, нужно не только совпадение внешности на фотографии в паспорте и на видео, но и данные настоящих банковских карт. Эксперты по банковской безопасности давно поговаривают в непубличной обстановке, что практически во всех крупных компаниях финсектора существуют незалатанные черные дыры, дающие мошенникам доступ к персональным данным пользователей.
Искусственный интеллект, оживляющий изображения реально существующих людей, — одна из основных точек приложения усилий хакеров. Дипфейки — маски, созданные специальными программами, которые просто накладывают на реальное изображение чужое лицо. Несколько лет назад угловатость и комичность, с которой технология «оживляла» изображение, стала основой для нескольких интернет-мемов. Тогда Сильвестра Сталлоне заставили «исполнить» главную роль в «Один дома», а Арнольда Шварценеггера — все роли во «Властелине колец». Но если те подделки детекторы дипфейков (специальные программы, которые раскручивают созданную иллюзию в обратную сторону, выявляя критические несоответствия между теми самыми 80 ключевыми точками) определяли почти в 100 процентах случаев, то теперь этот показатель стал ниже.
«Системы, использующие распознавание по лицу, имеют в своем составе специальные механизмы Liveness Detection. Фактически они проверяют, что с системой "общается" живой пользователь, а не его фотография. Поэтому, когда злоумышленник пытается обмануть систему распознавания лиц, он, по сути, соревнуется с механизмами Liveness Detection. Степень их надежности зависит от конкретной биометрической системы. Но стоит отметить, что лидеры российского и международного рынка технологий распознавания лиц достаточно хорошо защищают свои системы от взлома», — уверен Алексей Кузьмин, руководитель группы биометрических технологий и систем аутентификации центра прикладных систем безопасности компании «Инфосистемы Джет».
Самые первые системы распознавания строились по эмпирическому принципу: они «думали», как человек. Например, начинали просто с определения того, есть ли на изображении хотя бы нос и глаза, исследуя характерные перепады по цветам. Так получалось понять, на что вообще «смотрит» программа. При этом желательно, чтобы рядом не было других лиц, а сам фон был равномерным и светлым, без кислотных цветов или фикусов причудливых форм. Технологически такие системы совсем просты в исполнении, но в современном мире, где на изображениях всегда много информационного шума, практически не применимы.
После этого в системах распознавания лиц начали использовать шаблонный подход, при котором лица сверялись с заданными разработчиками стандартами. Получилось в итоге хуже, чем ожидалось: такие системы требовали громоздких вычислений и оказались слишком медленными на практике.
Современные алгоритмы по мере развития компьютерного зрения научились выявлять на лицах около 80 ключевых точек и строить линии между ними. Самые банальные варианты — расстояние между глазами или места закругления скул. Сейчас на это уходит всего несколько секунд, а полученный в итоге сложный набор данных конвертируется в уникальный код — цифровой отпечаток. И уже его можно сопоставлять с базой данных, неважно — клиентов банков или самых разыскиваемых преступников. Что самое важное, такие программы сначала долго обучаются на тестовых снимках и продолжают развиваться даже в боевых условиях.
Первый успешный российский стартап от компании NTechLab, связанный с распознаванием лиц, поначалу пользовался бешеной популярностью. Правда, вскоре критики обнаружили примеры нецелевого использования технологии и другие проблемы с этичностью. И все равно — теперь именно он развернут в масштабах всей страны.
Проект FindFace начинался как сервис, помогающий найти пользователей «ВКонтакте» по их фотографиям. Всего через год после его запуска департамент американского Министерства торговли, отвечающий за развитие технологий, признал использованные в разработке биометрические алгоритмы лучшими в мире.
Детище компании NTechLab завоевывало противников с такой же скоростью, как и сторонников. Дыр с безопасностью в сервисе не обнаружили, однако оказалось, что в руках обычных пользователей эта технология может быть опасным инструментом. Пока FindFace тестировали на фестивале Alfa Future People и «пилотировали» на паре тысяч столичных камер уличного наблюдения, в Петербурге приложение использовали, чтобы найти аккаунты двоих подростков, устроивших пожар в парадной. До самосуда, правда, не дошло. Как и в нашумевшей в свое время истории, когда пользователи «Двача» охотились на реальные аккаунты российских порноактрис, а потом устраивали спам-атаки с самыми изощренными угрозами. Часто — не только самим актрисам, но и их родственникам и друзьям.
В итоге проект FindFace закрыли, а NTechLab начал активно сотрудничать с властями. Сегодня компания — крупнейший подрядчик государства, сотрудничающий со многими подобными компаниями по всему миру, в том числе и с теми, которые замечены в работе на спецслужбы.
Самым уязвимым местом систем аутентификации по лицам долгое время были сами базы. Даркнету известны тысячи сливов персональных данных пользователей, а хакерам не принципиально, что именно воровать: номера банковских карт или цифровые отпечатки лиц.
Считается, что самой большой подобной базой в мире обладает ФБР. Речь может идти примерно о 650 миллионах изображений граждан США, мигрантов и туристов, посещавших страну в последнее десятилетие.
Но самые лучшие базы, конечно, у социальных сетей. У каждой из них есть свои собственные алгоритмы для распознавания лиц. Простор для их применения — куда более широкий, чем у ФБР, ведь условный Facebook, в отличие от спецслужб, имеет в своем распоряжении не одно портретное фото для визы, а десятки или даже сотни снимков конкретного пользователя, выполненных с разных ракурсов и в разных состояниях.
«С точки зрения обеспечения безопасности распознаванию по лицу присущи те же свойства, что и всем биометрическим способам. Человеку сложно противостоять попыткам взлома, так как отпечатки пальцев или форма лица в принципе не могут быть приватными, и их практически невозможно изменить. В этом отличие биометрических данных от, например, паролей, которые должны быть строго конфиденциальными, и пользователь может при необходимости их сменить по собственной воле или требованию системы аутентификации», — констатирует Алексей Кузьмин.
Эти примеры показывают, что безоговорочно верить в безопасность систем распознавания лиц нельзя. Именно поэтому вызывал и продолжает вызывать определенный скептицизм проект Единой биометрической системы (ЕБС), запущенный в России в 2018 году. Сейчас к ней подключены все банки страны, но пока в базу передали свои сведения лишь 200 тысяч человек. Оператор системы — «Ростелеком», который настаивает на том, что весь процесс полностью безопасен. Публичных сведений об утечках из ЕБС действительно не было, а в даркнете пометки с источником происхождения на данные ставить не принято.
«Наша система распознавания лиц создавалась около двух лет, но выкатить ее в промышленную эксплуатацию пришлось с некоторыми недоделками — поджимали конкуренты, — признается «Ленте.ру» на условиях анонимности один из ключевых разработчиков крупного российского банка. — Были ли в ней проблемы с безопасностью? На бумаге — нет. Но на моделирование всех возможных сценариев у нас просто не было времени».
Первоначальный восторг по поводу безопасности видеоидентификации сменился в мире легкой настороженностью. В ЕС готовят поправки, запрещающие применять искусственный интеллект в системах видеонаблюдения; в США есть целые города, в которых запрещено распознавание лиц; в Великобритании такой запрет коснулся даже полиции одного из регионов Уэльса.
«Вероятнее всего, массовое внедрение распознавания лиц произойдет в таких странах, как Россия и Китай, где есть соответствующая поддержка государства. В США и Европе есть сдерживающие факторы на уровне законодательства, в частности, Европейского регламента по защите данных GDPR и схожих по смыслу документов ряда штатов США», — заключает Кузьмин из компании «Инфосистемы Джет».
Обратную сторону технологии можно увидеть на примере Китая. Поначалу над ней смеялись: система видеоидентификация запрещала выдавать бумагу в уличных туалетах тем, кто уже получал ее в последние девять минут. Теперь, когда в Китае создали и запустили систему оценки граждан, которая присваивает им социальный рейтинг, видеоидентификация стала частью пугающей антиутопии — совсем как в сериале «Черное зеркало».
«Скатиться в тоталитаризм России могут помешать как раз хакеры, — шутит в разговоре с «Лентой.ру» системный инженер российского представительства одной из крупнейших глобальных компаний по защите данных. — Здесь более вероятен сценарий США, где только во второй половине 2020 года было отмечено 80 тысяч попыток обмануть госорганы на этапе видеоидентификации с помощью дипфейков. Эта цифра настолько велика, что становится понятно: дипфейки служат уже не только киберпреступникам, они пошли в народ».
Эксперты кредитной компании Experian PLC выводят на повестку дня новую угрозу: хакеры уже не просто подделывают чужие лица, а создают новые цифровые личности. Их никогда не существовало, но у них могут быть все идентификационные документы, счета в банках и даже пенсионные накопления. Очевидные сферы применения таких подделок — терроризм и финансовые махинации.
В 2021 году китайские медиа описывали истории двух жителей Шанхая, которые создали фиктивную компанию для продажи кожаных сумок и отправляли поддельные налоговые счета крупным «клиентам». Систему распознавания лиц, внедренную у китайских налоговиков и использующуюся для верификации счетов-фактур, удалось обмануть как раз такими новыми дипфейками. Ущерб составил 76,2 миллиона долларов, преступников удалось поймать.
В российском экспертном сообществе мнение о безопасности систем распознавания лиц пока очень осторожное. Опрошенные «Лентой.ру» представители нескольких компаний, занимающихся информационной безопасностью, согласились говорить либо на условиях анонимности, либо отказались от комментариев вовсе.
С одной стороны, понятно, что механизмы защиты, окружающие саму технологию и базы данных, достаточно надежны. С другой — весьма вероятно, что больших взломов избежать не удастся. Явная польза систем распознавания — упрощение и повышение надежности идентификации в любой сфере, создание полностью безопасных и умных городов, даже оплата в метро по лицу — всегда будет перекрываться продвинутым инструментарием хакеров, которые, как показывает практика, почти всегда оказываются на шаг впереди. В итоге распознавание лиц — одновременно и максимально безопасный, и максимально небезопасный инструмент. Все зависит от того, покажется ли конкретное лицо привлекательным киберпреступникам.