Кому стоит опасаться и как защищаться от Voice DeepFake

С развитием информационных технологий в области искусственного интеллекта стало возможно подделывать видео и голос для выманивания денег. Технология Voice DeepFake способна перехитрить не только людей, но и мессенджеры, платформы известных брендов. Кого хотят обмануть знакомым голосом и как распознать в звонящем имитатора, RSpectr рассказал ведущий инженер компании CorpSoft24 Михаил Сергеев.

Image: RSpectr, Adobe Stock

АЛГОРИТМ ОБМАНА

Новая мошенническая технология Voice DeepFake основана на обработке голоса для создания заданной речи. Для этого предоставляется аудиозапись нужного человека специальному ПО. На основе этих образцов софт научится довольно точно имитировать тембр голоса будущей жертвы, разбивая речь на слоги или короткие звуки, после чего они перестраиваются для создания новых предложений. Различные погрешности объясняются посторонними шумами и плохой связью.

Технологией уже активно пользуются мошенники во всем мире, и выявить обман сложнее, чем разоблачить «оператора» банка. Вам звонит «родственник», который узнаваемым голосом просит перевести деньги, чтобы выручить его из беды.

Исследователи из лаборатории безопасности алгоритмов, сетей и данных (SAND) Чикагского университета протестировали программы синтеза Voice DeepFake, доступные на сайте сообщества разработчиков с открытым исходным кодом Github. Они хотели проверить, можно ли разблокировать доступ к Amazon Alexa, WeChat и Microsoft Azure, защищенный системами распознавания голоса. Одной из таких программ – SV2TTS, по словам ее разработчиков, требует всего пять секунд образца речи для создания достойной голосовой имитации.

Описанная как «набор инструментов для клонирования голоса в реальном времени»,

SV2TTS СМОГЛА ОБМАНУТЬ MICROSOFT AZURE ПРИМЕРНО В 30% СЛУЧАЕВ И БЫЛА ЕЩЕ ЭФФЕКТИВНЕЕ (63%) ПРИМЕНИТЕЛЬНО К ЗАЩИТЕ WECHAT И AMAZON ALEXA

Программа также успешно вводит в заблуждение людей: 200 добровольцев, которых попросили отличить настоящий голос от подделки SV2TTS, были обмануты в половине случаев. Специалисты выяснили, что дипфейк-алгоритмы более успешны в подделке женских голосов, а также речи на всех языках, кроме английского. Причины такой тенденции для исследователей пока непонятны.

Этой статистики достаточно, чтобы эксперты сделали вывод: «И люди, и машины могут быть введены в заблуждение синтетической речью, а существующие средства защиты от нее недостаточны». То есть современные голосовые клоны в руках преступников позволяют осуществить целый ряд мощных атак не только на людей, но и на программные системы.

ИЗ ПУШКИ НЕ ПО ВОРОБЬЯМ

Но есть и хорошие новости – голосовой клон не очень подходит для массового использования и «коврового» обзвона жертв. Сама специфика технологии предполагает конкретную точечную атаку на предварительно выбранного человека.

КОГДА РЕЧЬ ИДЕТ О ЧАСТНЫХ ЛИЦАХ, ВЕРОЯТНОСТЬ СТАТЬ СЛУЧАЙНОЙ ЖЕРТВОЙ ГОЛОСОВОГО ДИПФЕЙКА ПОКА МАЛА

Вы должны быть богатым человеком, против которого ведется системная слежка для проработки сценария обмана.

В настоящий момент это больше корпоративная история: исследователи из компании Symantec, специализирующейся на кибербезопасности, сообщили СМИ о трех случаях, когда воры с помощью программ Voice DeepFake просили руководителей крупных компаний перевести деньги на частные счета. В одном из этих случаев потери составили несколько миллионов долларов.

ПАРОЛЬ ПРОТИВ ИМИТАТОРА

Как защититься от голосового дипфейка? Прежде всего необходимо договориться с потенциальными участниками такой атаки об идентификации по телефону. Если, например, человек просит перевести деньги, следует обговорить вопросы, ответы на которые злоумышленники знать не могут. Так можно сразу понять, что перед вами мошенник.

Конечно, против глубоко продуманной и подготовленной атаки это не поможет – преступники могут изучить жертву достаточно хорошо, чтобы ответить на вопросы типа «Как зовут твою собаку?» или «В каком году ты окончил школу?». Но далеко не все готовятся так тщательно. Главное – понимать, что технологии действительно шагнули вперед и такой сценарий обмана больше не является научной фантастикой.

Государства начали работу по противодействию клонам.

В США В 2019 ГОДУ УЖЕ БЫЛ ПРИНЯТ ЗАКОНОПРОЕКТ О ЗАЩИТЕ ГРАЖДАН ОТ ЛОЖНЫХ ПРОЯВЛЕНИЙ ЕГО ЛИЧНОСТИ, КОТОРЫЙ РЕГУЛИРУЕТ ИСПОЛЬЗОВАНИЕ ДИПФЕЙКОВ

Аналогичный закон в Калифорнии вводит уголовную ответственность за применение несогласованных визуальных и аудиоклонов в рекламных акциях и в политических кампаниях. Проблематика дипфейков привела и к появлению новой области исследований – разработки детекторов цифровых фальшивок.

НА СВЕТЛОЙ СТОРОНЕ

Впрочем, у Voice DeepFake есть и другая область применения – технология отлично подходит для создания развлекательного контента. В ближайшие несколько лет клонирование голосов медийных личностей, скорее всего, станет трендом.

ЗНАМЕНИТОСТИ ЗАХОТЯТ УВЕЛИЧИТЬ ДОХОДЫ ПРИ МИНИМАЛЬНЫХ УСИЛИЯХ, СДАВАЯ СВОИ ГОЛОСА В АРЕНДУ

Компания Veritone запустила такую услугу в начале этого года, заявив, что она позволит публичным людям лицензировать искусственный голос для рекламных акций и радиороликов без необходимости идти для записи в студию. По этой модели Брюс Уиллис уже лицензировал свой образ для использования в качестве визуального дипфейка в рекламе мобильного оператора в России. Эта сделка позволяет ему зарабатывать не выходя из дома, а компания получает более молодую версию актера времен первой части «Крепкого орешка». Такого рода визуальные и звуковые клоны могут ускорить экономическое масштабирование труда знаменитостей, позволяя извлекать выгоду в больших объемах.

По материалам «Радиочастотный спектр»

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *