Pindrop демонстрирует аудио дипфейк и выявляет мошенничество


Преступники используют онлайн-контент, например, из YouTube, чтобы синтезировать голоса руководителей и менеджеров компании для совершения мошенничества с использованием deepfake audio, заявил генеральный директор Pindrop Виджай Баласубраманян на RSA 2020, сообщает Digital Information World.

С тех пор, как в прошлом году появились первые сообщения о том, что deepfake audio был успешно использован для обмана компании, эта технология привела к нескольким инцидентам и потерям примерно в 17 миллионов долларов, согласно DIW. Сгенерированный искусственным интеллектом аудио также можно комбинировать с фишингом или атаками по электронной почте в более сложных схемах.

Баласубраманиян сказал собравшимся, что достаточно реалистичные клонированные голоса могут быть сгенерированы всего из пяти минут записанного материала, и пять или более часов могут питать искусственные копии, которые могут обмануть человека при ближайшем рассмотрении.

Баласубраманиян продемонстрировал технику атаки, подделав голос президента США Дональда Трампа из предыдущих записей менее чем за минуту. Этот пример также показывает риск использования технологии для генерирования и распространения дезинформации.

Несмотря на эту ужасную ситуацию, deepfakes все еще составляют небольшой процент мошенничества через голосовой канал.

По словам генерального директора, алгоритмы Pindrop могут отличать реальную речь от deepfakes, анализируя произношение слов и сопоставляя их с человеческими речевыми паттернами.

Год назад Баласубраманиян сказал Biometric Update, что Pindrop может обнаруживать deepfake звук более чем в 90% случаев. Pindrop анонсировал новую версию своего программного обеспечения для аутентификации Deep Voice 3 на RSA.

По материалам Biometrics Research Group. Автор Chris Burt

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *