Исследование DeepFake выявило уязвимость обнаружения живости

Исследования методов, эффективности и ограничений биометрического обнаружения глубоких подделок были добавлены к растущему объему работ по этой теме. Не всё это чётко согласуется, за исключением предположения, что глубокие подделки представляют потенциальную угрозу для систем распознавания лиц и определения живости.

Как сообщает Unite.AI, тест биометрических API-интерфейсов показывает, что они не справляются с задачей обнаружения новых и развивающихся дипфейков.

«Видеть — значит жить? Переосмысление безопасности проверки живости лица в эпоху Deepfake» оценивает эффективность биометрических сервисов «проверки живости лица» или «FLV», предоставляемых через API, и обнаруживает, что многие из них настроены на обнаружение устаревших методов атак дипфейков или слишком зависят от конкретной архитектуры. В исследовании признаются существенные различия в действиях, применяемых разными поставщиками.

Фреймворк для дипфейк атак LiveBugger был использован для тестирования систем живости и обнаружил, что некоторые из них способны лучше обнаруживать высококачественные синтезированные видео, чем низкокачественные (которые, предположительно, более восприимчивы к обнаружению человеком). Исследователи включили шесть фреймворков deepfake в разработку LiveBugger, которые нацелены на четыре разных вектора атак. Фреймворк был применен к системам живости, использующим отдельные изображения, видеоклипы, действия с подсказками и речь с подсказками.

Анализ показывает, как предвзятость в технологиях обнаружения живучести может быть использована для более эффективного выбора целей преследования. Исследователи также изучают другие методы повышения эффективности атак.

Они представляют обзор уязвимостей для глубоких подделок, выявленных в технологиях обнаружения живости, и приходят к выводу, что биометрические системы обнаружения живости должны отказаться от подхода с одним изображением в будущем. Они также рекомендуют использовать обнаружение дипфейков для видеоклипов, анализ движений губ в речевых процессах с подсказками и обнаружение когерентности в системах живости, основанных на действиях.

По словам ученых, проводивших исследование, вовлеченные поставщики подтвердили результаты этого исследования.

Это исследование контрастирует с тем, которое недавно представила Энн-Катрин Фрейберг (Ann-Kathrin Freiberg) из BioID на обеде в EAB, которое предполагает, что существующие технологии биометрического обнаружения живости, такие как 3D-движение и анализ текстур, обычно успешно выявляют глубокие подделки как атаки с воспроизведением видео.

Методы для масок

Статья на тему «Обнаружение глубоких подделок для изображений лиц с масками», опубликованная исследователями из Университета Сонгюнкван в Южной Корее.

Южнокорейская исследовательская группа говорит, что методы обнаружения дипфейков до сих пор демонстрировали высокую эффективность, но тестирование не оценивало, распространяется ли эта эффективность на системы, используемые для лиц в масках. Они устраняют этот недостаток, тестируя существующие инструменты и разрабатывая два собственных, чтобы помочь с решением дополнительной задачи обнаружения лиц, скрытых масками.

Были протестированы четыре модели обнаружения дипфейков. При базовом тестировании наиболее эффективная модель обнаруживала немаскированные глубокие подделки из пяти наборов данных от двух третей до почти 97%, но уровень точности снижался почти на 10% и более чем на 20% в для двух наборов данных.

Два метода, разработанные исследователями для улучшения обнаружения дипфейков, основаны на изменении существующих обучающих наборов данных для повышения производительности моделей с окклюзиями. Метод «Обрезка лица» состоит из изображений, обрезанных чуть ниже глаз, и имеет более высокую производительность, чем метод «Заплатка на лице», при котором цифровые прямоугольники помещаются поверх глаз и носов объектов.

Признание исследования

Согласно заявлению Инженерного колледжа Университета Северного Техаса, исследовательская работа об использовании обнаружения дипфейков для предотвращения атак презентации на систему распознавания лиц умного города получила награду за лучшую статью на недавней Международной конференции по информационным технологиям OITS/IEEE.

«Обнаружение глубокоморфированных Deepfake изображений для создания надёжных автоматических систем распознавания лиц» была написана докторантом Алаканандой Митрой (Alakananda Mitra), профессором компьютерных наук и инженерии Сараджу П. Моханти (Saraju P. Mohanty) и профессором электротехники Элиасом Кугианосом (Elias Kougianos) из UNT.

Метод, описанный в статье, показал точность обнаружения дипфейков от 94,83% до 100%, если для оценки высококачественных изображений не использовался обучающий набор изображений низкого качества.

Голосовые дипфейки для продажи

Для тех, кто хотел бы, чтобы дипфейк-аватар говорил от их имени, Speech Morphing предложит записать сотни конкретных фраз, чтобы зафиксировать ряд звуков и эмоций.

Основатель и генеральный директор Speech Morphing Фати Ясса (Fathy Yassa) рассказывает MindMatters.ai, что в качестве альтернативы компания может создать дипфейк голоса, извлекая из сети всего 10-15 минут аудиозаписей.

По материалам Biometrics Research Group. Автор Chris Burt

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *