Наблюдается прогресс в обнаружении поддельного видео, исследуется подделка голоса

Сообщается о двух случаях, связанных с попытками помешать мошенничеству deepfake с видео и аудио.  В статье открытого доступа, опубликованной SPIE, международной профессиональной ассоциацией оптики и фотоники, сообщается о новом алгоритме, который, как сообщается, набрал точность определения глубинного поддельного видео в 99,62%. По некоторым сообщениям он был точным в 98,21% случаев.

Прошло три года с тех пор, как угроза глубоких подделок широко распространилась в глобальных средствах массовой информации, и за это время их реализации стали более изощренными.

Страх перед неправильным использованием (помимо простых замен лиц порно-актеров на лица знаменитостей) вызывал шок, а некоторые наблюдатели предупреждают, что подчиненные ключевого военачальника страны, обладающей ядерным оружием, могут поверить в экстренно отданный приказ о запуске ракет.

Авторы статьи, два из Института инженеров и технологий им. Тапара и третий из Института информационных технологий Индрапрастха (оба в Индии), утверждают, что это важный этап исследований.

Они утверждают, что первыми сделали общедоступной базу данных о фальшивых подделках, которыми манипулируют генерирующие состязательные сети, в которых фигурируют известные политики. Их база данных состоит из 100 исходных и 100 целевых видео.

Более того, они утверждают, что являются первыми разработчиками алгоритма, который может обнаружить глубокие фальшивки политиков в течение двух секунд с начала клипа. Команда сказала, что они использовали временные последовательности кадров, взятые из клипов, чтобы выявить подмену.

Поставщики биометрии ID R&D и NtechLab заняли лидирующие позиции в недавнем конкурсе Deepfake Detection Challenge.

Усилия по обнаружению голосового мошенничества также развивается быстрыми темпами.

Когда люди всех слоев общества стали регулярно участвовать в видеозвонках, в среднесрочной перспективе звуковая deepfake атака стала выглядеть более угрожающей.

Сравнивая эти две угрозы, казалось более вероятным, что убедительный фальшивый звонок может заставить ключевого сотрудника среднего звена помочь боссу в чрезвычайной ситуации.

В официальном документе, опубликованном фирмой Nisos, специализирующейся в области кибербезопасности, описываются пять инцидентов, связанных с deepfake аудио-атаками.

Nisos пишет в маркетинговом документе, что она фактически расследовала одну такую атаку — включая оригинальный синтетический звук. Это был фальшивый голос генерального директора компании, «просившего сотрудника перезвонить, чтобы «завершить» срочную коммерческую сделку».

Сотрудник, благоразумно, сразу позвонил в юридический отдел. Номер, по которому потенциальная жертва должна была позвонить, был записан с помощью VOIP-сервиса.

Инженеры Nisos изучили запись с помощью Spectrum3d, инструмента спектрограммы, который наряду с простым прослушиванием сообщения и сравнением его с известным человеческим голосом выявил некоторые данные.

В конечном счете, лучший совет, который Nisos или кто-либо другой в отрасли может предложить, это сохранять здравый смысл. Если что-то о звонке вызывает подозрение, позвоните в юридический отдел.

По материалам Biometrics Research Group. Автор Jim Nash

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *