
Распространяется новый тип глубокой подделки, основанный на голосовых записях. Голосовые биометрические алгоритмы продолжают совершенствоваться, и субъекты угроз используют их для мошенничества, кражи личных данных и других незаконных действий.
Недавняя статья Vice показала, что несколько пользователей социальной медиа-платформы 4chan использовали бета-версию программного обеспечения ElevenLabs для создания голосов, похожих на голоса известных людей, включая Джо Рогана, Бена Шапиро и Эмму Уотсон, которые высказывали расистские или оскорбительные замечания.
ElevenLabs предоставляет услуги «синтеза речи» и «клонирования голоса», якобы для того, чтобы исследовать новые границы голосового искусственного интеллекта и помочь «создателям и издателям, ищущим идеальные инструменты для повествования».
За кулисами находится Vall-e от OpenAI. Согласно TechCrunch, за последние несколько месяцев модель значительно продвинулась вперёд и теперь способна создавать убедительные глубокие подделки.
Нужно больше? Представляем программное обеспечение для голосового банкинга на базе искусственного интеллекта от французского стартапа Acapela Group. Представленный на выставке CES 2023 и отмеченный DigitalTrends, My Own Voice призвана помочь людям, потерявшим способность говорить, воссоздать свой голос.
Сообщается, что программное обеспечение может создать убедительный голос, используя всего три минуты записанного звука.
Как бороться с глубокими подделками голоса с помощью биометрии
Однако также разрабатываются меры по борьбе с подменой.
По словам инженеров по распознаванию голоса в Pindrop, колл-центры могут предпринять шаги, чтобы уменьшить вред глубоких подделок голоса.
Компании могут информировать работников об опасности.
Функции обратного вызова могут завершать подозрительные вызовы и запрашивать исходящий вызов у владельца учётной записи для прямого подтверждения.
Наконец, многофакторная аутентификация (MFA) и решения по борьбе с мошенничеством могут снизить риски глубокой подделки. В Pindrop упоминаются такие факторы, как разработка метаданных вызова для проверки личности, анализ цифрового сигнала и анализ нажатия клавиш для поведенческой биометрии.
Даже Китай работает над регулированием глубокой подделки. Как сообщает «New York Times», в стране введены строгие правила, требующие, чтобы обрабатываемые материалы имели согласие субъекта и имели цифровые подписи или водяные знаки.
Работают ли правила в отношении глубоких подделок, неизвестно. Однако правозащитники предупреждают, что они могут ещё больше ограничить свободу слова в Китае.
По материалам Biometrics Research Group. Автор Alessandro Mascellino