Голосовые дипфейки на подъеме: биометрия может помочь

Распространяется новый тип глубокой подделки, основанный на голосовых записях. Голосовые биометрические алгоритмы продолжают совершенствоваться, и субъекты угроз используют их для мошенничества, кражи личных данных и других незаконных действий.

Недавняя статья Vice показала, что несколько пользователей социальной медиа-платформы 4chan использовали бета-версию программного обеспечения ElevenLabs для создания голосов, похожих на голоса известных людей, включая Джо Рогана, Бена Шапиро и Эмму Уотсон, которые высказывали расистские или оскорбительные замечания.

ElevenLabs предоставляет услуги «синтеза речи» и «клонирования голоса», якобы для того, чтобы исследовать новые границы голосового искусственного интеллекта и помочь «создателям и издателям, ищущим идеальные инструменты для повествования».

За кулисами находится Vall-e от OpenAI. Согласно TechCrunch, за последние несколько месяцев модель значительно продвинулась вперёд и теперь способна создавать убедительные глубокие подделки.

Нужно больше? Представляем программное обеспечение для голосового банкинга на базе искусственного интеллекта от французского стартапа Acapela Group. Представленный на выставке CES 2023 и отмеченный DigitalTrends, My Own Voice призвана помочь людям, потерявшим способность говорить, воссоздать свой голос.

Сообщается, что программное обеспечение может создать убедительный голос, используя всего три минуты записанного звука.

Как бороться с глубокими подделками голоса с помощью биометрии

Однако также разрабатываются меры по борьбе с подменой.

По словам инженеров по распознаванию голоса в Pindrop, колл-центры могут предпринять шаги, чтобы уменьшить вред глубоких подделок голоса.

Компании могут информировать работников об опасности.

Функции обратного вызова могут завершать подозрительные вызовы и запрашивать исходящий вызов у владельца учётной записи для прямого подтверждения.

Наконец, многофакторная аутентификация (MFA) и решения по борьбе с мошенничеством могут снизить риски глубокой подделки. В Pindrop упоминаются такие факторы, как разработка метаданных вызова для проверки личности, анализ цифрового сигнала и анализ нажатия клавиш для поведенческой биометрии.

Даже Китай работает над регулированием глубокой подделки. Как сообщает «New York Times», в стране введены строгие правила, требующие, чтобы обрабатываемые материалы имели согласие субъекта и имели цифровые подписи или водяные знаки.

Работают ли правила в отношении глубоких подделок, неизвестно. Однако правозащитники предупреждают, что они могут ещё больше ограничить свободу слова в Китае.

По материалам Biometrics Research Group. Автор Alessandro Mascellino

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *