Прогнозы цифровой идентичности на 2020 год: Глубокие фальшивые атаки и ответы развиваются


«Несмотря на то, что злоумышленник может использовать глубокие фальшивые приемы, чтобы убедительно имитировать сходство человека, все еще трудно осуществить цифровую олицетворение своего голоса без довольно явных недостатков», – говорит Роберт Кэппс, вице-президент по маркетинговым инновациям для NuData Security, компания Mastercard. «Deepfake аудио или видео в настоящее время не может быть воспроизведено в режиме реального времени, без злоумышленника, имеющего большой объем вычислительных ресурсов и много высококачественных аудио и видео исходных материалов для обучения алгоритмов компьютерного машинного обучения. Хотя Deepfakes могут быть убедительными для других людей, они не могут пройти физическую или пассивную биометрическую проверку, поэтому сочетание строгого обнаружения жизнеспособности и сбора пассивных и физических биометрических сигналов для проверки личности пользователя в значительной степени снижают текущие риски, связанные с банковской деятельностью».

Корни технологии фальсификации мрачны, но показывают, как даже элементарные попытки могут обмануть людей в ситуациях с высокими ставками.

«В 2013 году, работая в NCA, я воочию убедился, насколько убедительной может быть технология глубокого подделки, когда виртуальная 10-летняя филиппинская девочка Sweetie, созданная голландской неправительственной организацией, использовалась для выявления тысяч детей, злоупотребляющих сексуальным насилием во всем мире» – вспоминает главный сотрудник службы безопасности Callsign Иан Кракстон, бывший директор Национального агентства по борьбе с преступностью в Великобритании. «В этом случае он использовался теми, кто имел добрые намерения, для выявления и судебного преследования серьезных лиц, совершивших преступления на сексуальной почве, но неудивительно, что возможности, предоставляемые DeepFake, теперь привлекли внимание тех, кто совершает преступления и, в частности, мошенничество. Во многих отношениях это ответ мошенников на шаги, предпринимаемые предприятиями для предотвращения более традиционных фишинговых атак».

Кэтрин Харрисон, основатель и генеральный директор Deeptrust Alliance, который занимается этой проблемой, считает, что видеоконтент, который трудно доказать, как подлинный или поддельный, распространяется таким образом, что оказывает существенное влияние на выборы в США в октябре. Однако есть и основания для надежды.

«От промышленности до технологий, средств массовой информации и финансовых услуг, а также научных кругов, правительства и неправительственных организаций систематически и публично начнут сотрудничать в области технологий и передовых методов борьбы с подделками», – прогнозирует она.

По материалам Biometrics Research Group. Автор Крис Берт

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *