Эксперты в области защиты данных назвали технологию deepfake реальной угрозой для клиентов банков. Об этом сообщается в Telegram-канале компании Group-IB.
Узнайте больше в полной версии ➞Сотрудник компании Антон Фишман призвал пользователей не разговаривать по телефону ни с «сотрудниками банка», ни с теми, кто представляется специалистами страховых компаний или пенсионного фонда. Однако, по его мнению, возможность сделать «аудиослепок» с голоса клиента все еще остается мифом. Он уточнил, что система верификации включает не один параметр, поэтому подделать биометрическую информацию очень сложно.
Так Фишман прокомментировал появляющиеся в сети публикации о том, что в разговоре с неизвестными нельзя кратко соглашаться или говорить фразы вроде «да, я подтверждаю».
При этом важной проблемой, по мнению эксперта, стала технология deepfake, позволяющая обучать искусственный интеллект. Он привел в пример инцидент, произошедший в Германии: там мошенники, используя обученный механизм, от лица директора компании заставили представителей другой фирмы перевести на неизвестный счет 220 тысяч евро.
В начале 2018 года алгоритм deepfake стал скандально известен в сети. Он позволил создавать фейковые видео и аудиозаписи: к примеру, в сети распространились фальшивые порноролики, где вместо лиц профессиональных актеров были подставлены лица знаменитостей. Администрация Reddit и ряд порнохостингов заблокировали все подобные видео, опасаясь юридических последствий. Тогда специалисты предположили, что фальшивые ролики с участием политиков могут стать причиной начала ядерной войны.