Как могут подделать голоса ваших друзей и родственников

Искусственный интеллект (ИИ) с каждым днём совершенствуется, и этим пользуются злоумышленники. Они взяли на вооружение способность ИИ воспроизводить голоса людей. В итоге образовался новый вид финансового мошенничества, схемы которого строятся на использовании технологии дипфейков.

Audio deepfake (голосовой дипфейк, глубокий фейковый синтез) представляет собой метод обработки звуковых записей с использованием нейросети. Искусственный интеллект может изменять голос на аудиозаписи таким образом, что его становится практически невозможно отличить от настоящего и у собеседника создается впечатление, что он общается с живым человеком.

Голосовой дипфейк первоначально создавался для улучшения жизни людей: создания аудиокниг, для помощи потерявшим голос и др. Кроме того, посредством применения данной технологии можно создавать персонализированных цифровых помощников, а также службы преобразования текста в речь и перевода речи с естественным звучанием на выходе.

Однако злоумышленники нашли ещё одну нишу для применения аудиодипфейков – финансовое мошенничество. Они подделывают голосовые сообщения и с их помощью обманывают своих жертв.

Как рассказала основатель бренда Business Svaha, инвестор и блогер в сфере инноваций и высоких технологий Мария Кучеренко, технология дипфейков позволяет фабриковать поддельные видео- и аудиоматериалы, которые выглядят как настоящие, и использовать их для совершения мошенничества.

«Как правило, в финансовом мошенничестве используются аудиодипфейки, с помощью которых создаются поддельные голосовые сообщения. ИИ даёт аферистам возможность подделывать голоса работников банков и других финансовых организаций, представителей банков, финансовых учреждений или даже близких людей, обращаясь к жертвам с просьбой подтвердить личную информацию или выполнить финансовые операции»

Пояснила эксперт

Она отметила, что используемые при совершении финансового мошенничества поддельные голосовые сообщения могут вводить людей в заблуждение, заставляя их совершать нежелательные или опасные действия.

«Поэтому крайне важно быть бдительными и проверять подлинность голосовых сообщений, особенно если они связаны с финансовыми операциями»

Подчеркнула блогер
Голосовой дипфейк представляет собой метод обработки звуковых записей с использованием нейросети Фото: Midjourney

Виды мошенничества с использованием аудиодипфейков

Существует несколько вариантов использования голосовых дипфейков для совершения мошенничества. Специалисты различают как минимум три наиболее распространённых из них:

  • финансовое мошенничество – злоумышленники могут проникать в голосовую почту банков, финансовых учреждений или иных организаций и оставлять там поддельные голосовые сообщения с просьбой подтвердить личную информацию либо совершить какие-то действия, которые могут привести к финансовым потерям;
  • фальшивые просьбы о помощи – мошенники способны подделывать голоса друзей или родственников и обращаться к жертвам от их имени с просьбой оказать финансовую поддержку. Знакомый голос, как правило, вызывает доверие, поэтому люди нередко идут на поводу у таких «просителей»;
  • социальный инжиниринг – аферисты могут использовать аудиодипфейки для подделывания голосов политиков, членов правительства либо других хорошо известных личностей, чтобы получить конфиденциальную информацию или вызвать панику у населения.
Существует несколько видов мошенничества с использованием аудиодипфейков Фото: Midjourney

Отличия голосового дипфейка от голоса живого человека

По словам основателя бренда Business Svaha, отличить дипфейковый голос от настоящего человеческого может быть несколько проблематично, так как технологии голосового синтеза непрерывно совершенствуются. Но есть ряд косвенных признаков, которые могут помочь выявить потенциальное финансовое мошенничество с использованием аудиодипфейка:

  • неестественная модуляция и интонация – дипфейковый голос может звучать роботизированно или механически, быть лишённым естественной модуляции и интонации, обычно присущих настоящему человеческому голосу. Так что следует насторожиться, если собеседник говорит с вами слишком монотонно;
  • несоответствие между голосом и информацией – когда голос собеседника не соотносится с его возрастом или полом (например, звучит слишком молодо для пожилого человека и др.). Кроме того, стоит обращать внимание на язык и акцент – если они не соответствуют личности или происхождению вашего гипотетического знакомого, то это с большой долей вероятности – попытка мошенничества;
  • артефакты и искажения – дипфейковые голосовые сообщения в ряде случаев могут сопровождаться нечеткостью звука, шумом на заднем фоне или неровными переходами между звуками. Всё это может указывать на использование технологии синтеза голоса в целях мошенничества;
  • слишком длинные паузы – в реальной жизни люди обычно не делают длительных пауз между вопросом и ответом, если это не вызвано раздумьями или поиском информации. Тогда как дипфейковому голосовому синтезатору может потребоваться дополнительное время на обработку и генерацию ответа. Конечно, ваш собеседник может долго думать над ответами, но если подобное происходит в течение всего разговора – это повод заподозрить, что с вами говорит не живой человек, а голосовой синтезатор, используемый для совершения финансового мошенничества.
Отличить дипфейк от настоящего голоса может быть проблематично, так как технологии непрерывно совершенствуются Фото: Midjourney

Как обезопасить себя от мошенничества с использованием аудиодипфейков

Для того чтобы максимально обезопасить себя от финансового мошенничества, необходимо сохранять бдительность и быть внимательным к деталям. Например, поводом для беспокойства может стать ситуация, когда вам вдруг поступило голосовое сообщение от человека, который внезапно просит крупную сумму денег в долг или ему вдруг зачем-то понадобились ваши личные данные.

Кроме того, нередки примеры мошенничества, когда женщине звонит «сын», который сообщает, что попал в ДТП и теперь ему нужны деньги, чтобы «откупиться от следователя». И в первом, и во втором случаях не лишним будет связаться с предполагаемым собеседником, чтобы выяснить, действительно ли он ранее отправлял вам голосовое сообщение с просьбой о помощи.

А может случиться и наоборот: собеседник не будет ничего у вас просить, а сам предложит выгодную сделку, ценную информацию или финансовую помощь. В таком случае также не стоит торопиться с ответом. Возьмите паузу и постарайтесь выяснить, действительно ли позвонивший или приславший вам сообщение — тот, за кого себя выдаёт, и поступившее предложение не является попыткой мошенничества.

Для этого можно проверить в интернете номер телефона, с которого поступил звонок или сообщение, а также связаться с организацией, представителем которой собеседник назвался, по контактам, указанным на ее официальном сайте. И, конечно же, чтобы защититься от мошенничества в будущем, стоит постараться побольше узнать о технологии аудиодипфейков, а также о возможных последствиях, связанных с ней.

Аудиодипфейки в случае использования злоумышленниками для совершения мошенничества могут представлять серьёзную угрозу финансовому благополучию граждан, однако и от них можно защититься.

«Будьте бдительны, подозрительны и всегда проверяйте источник перед предоставлением конфиденциальной информации или совершением финансовых операций. Знание о технологии аудиодипфейков и её потенциальных угрозах является одним из главных средств защиты от этого нового вида мошенничества. Оставайтесь в безопасности и будьте внимательны к ложным голосам, которые могут попытаться обмануть вас»

Резюмировала Мария Кучеренко
По материалам Новые известия

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *