Около 95% deepfakes принимаются биометрическими системами распознавания лиц. Об этом свидетельствуют исследования, проведенные Павлом Коршуновым и Себастьеном Марселем из Научно-исследовательского института Идиап (https://www.biometricupdate.com/tag/idiap) в Мартиньи, Швейцария.
По словам Коршунова и Марселя, современные системы распознавания лиц уязвимы для высококачественных фальшивых изображений и видео, созданных с использованием генеративных состязательных сетей (GAN), что создает необходимость в автоматическом обнаружении лиц, генерируемых GAN. Они использовали программное обеспечение с открытым исходным кодом на основе GAN для создания фальшивых видео с лицами, трансформированными с помощью алгоритма на основе GAN, чтобы доказать, что «современные системы распознавания лиц, на основе VGG и Facenet нейронных сетей уязвимы для видео deep morph, с 85,62% и 95,00% ложных приемов, соответственно, что методы обнаружения этих видео необходимы».
Они обнаружили, что визуальные показатели качества наиболее эффективны при обнаружении deep morph с равной частотой ошибок 8,97%. Исследование называется «Уязвимость распознавания лица к deep morph» и может быть рассмотрено здесь. Исследование обсуждалось на международной конференции Frontex по биометрии для границ 2019 года в Варшаве.
Google в сотрудничестве с Jigsaw недавно разработала и представила обширную базу данных визуальных глубинных подделок, которая теперь является частью эталона FaceForensics, созданного Техническим университетом Мюнхена и Университетом Федерико II из Неаполя. База данных содержит сотни записанных видео, которые были обработаны широкодоступными методами генерации deepfake для создания тысяч deepfakes.
Другое исследование, проведенное амстердамской компанией по кибербезопасности Deeptrace, предупреждает, что DeepFake распространяются очень быстро в Интернете, «за последние семь месяцев количество видеороликов deepfake почти удвоилось до 14 678». Это возможно благодаря большому количеству инструментов коммодификации, которые облегчают людям создание deepfakes и распространение их через социальные сети. Компания заметила большое количество deepfakes и синтетических медиа-инструментов, возникающих из Китая и Южной Кореи.
По материалам Biometrics Research Group. Автор Luana Pascu.