Поставщики биометрической регистрации недооценивают deepfake

Deepfake видеоролики привлекли к себе пристальное внимание благодаря своему потенциалу в качестве инструментов мошенничества – от распространения дезинформации до проведения атак на системы контроля доступа в Интернете и краж.

В новом отчёте, подготовленном поставщиком биометрических KYC-систем Sensity, говорится, что глубокие подделки представляют собой гораздо более серьёзную угрозу для систем регистрации клиентов, основанных на биометрии selfie, чем считают те, кто предоставляет эту технологию.

Компания обнаружила значительную уязвимость к подделкам deepfake среди поставщиков биометрических KYC, которые составляют почти четверть доли мирового рынка. Компания считает, что в технической литературе недостаточно информации об уязвимости продуктов обнаружения живости к подделкам, а модели, используемые в академическом тестировании, недостаточно строги.

Для отчета «Deepfakes vs Biometric KYC Verification» компания Sensity провела поддельные атаки на «десять наиболее широко распространённых поставщиков биометрической верификации для KYC», которые остались неназванными, и обнаружила, что «подавляющее большинство из них серьёзно уязвимы к атакам deepfake».

Компания Sensity разработала то, что она называет первым в отрасли набором инструментов Deepfake Offensive Toolkit (DOT), который она использует для улучшения собственных услуг. Включенная в продукты конкурентов, система подделки обманула все пять активных тестов на «живость», все пять тестов на проверку идентификационных данных, четыре из пяти пассивных тестов на «живость» и все четыре системы полного KYC.

Этот результат примечателен в свете исследований компании BioID, которая обнаружила, что цифровые артефакты, свидетельствующие о манипуляциях с видео, могут быть обнаружены с помощью алгоритмов искусственного интеллекта, что позволяет предположить, что специальный алгоритм может быть встроен в систему обнаружения презентационных атак (PAD) для защиты от глубоких подделок. Анн-Катрин Фрайберг из BioID, однако, предостерегла от атак на уровне приложений, таких как виртуальные камеры.

В отчёте Sensity говорится о внедрении видео с фейком в биометрическую систему.

Компания Unite.AI в своей недавней работе предположила, что биометрия может обнаружить глубокие подделки даже легче, чем системы обнаружения артефактов, а многие производители систем liveness и PAD заявляют о способности обнаруживать глубокие подделки.

«Мы незамедлительно раскрыли уязвимость всем заинтересованным поставщикам KYC», – объясняет генеральный директор и главный научный сотрудник компании Sensity Джорджио Патрини. «Раскрытие произошло за несколько месяцев до выхода нашего отчёта. К нашему удивлению, наши результаты были преуменьшены или иногда полностью отвергнуты этими компаниями. Общим аргументом было не то, что уязвимость не существует в их продукте, а то, что их клиенты не будут заинтересованы в её устранении. Это вызывает беспокойство, поскольку за последний год мы зафиксировали особенно быстрый рост использования deepfakes и алгоритмических аватаров для автоматизации подделки liveness в KYC, особенно среди клиентов Sensity в Латинской Америке».

Sensity также ссылается на мошенническую атаку 2021 года в Китае, в которой, по-видимому, использовались глубокие подделки, чтобы обойти систему PAD.

Выводы отчёта оставляют открытыми вопросы о том, насколько распространён этот метод атаки и насколько легко будет масштабировать использование сложных глубоких подделок в режиме реального времени с перехватом камер.

Инцидент, в котором технология deepfake была использована для выдачи себя за американского потребителя, а не за знаменитость или политического деятеля, но в этом случае, как сообщает WSAZ из Западной Вирджинии, deepfake использовался для того, чтобы убедить контакты этого человека в необходимости инвестиций в криптовалюту, а не для атаки на биометрические системы.

Фрэнк Херси внес вклад в подготовку этого отчета.

По материалам Biometrics Research Group. Автор Chris Burt

Добавить комментарий

Ваш адрес email не будет опубликован.