Многие мечтали о летающих машинках и космических приключениях, но вместо этого мы столкнулись с новыми схемами мошенничества, использующими нейросети и дипфейки. С помощью искусственного интеллекта стало возможно легко подделать голос и даже видеоизображение человека. Эта технология, известная как deepfake, активно развивается последние несколько лет, позволяя создавать убедительные подделки изображений, видео и аудиоданных.
Опасность заключается в том, что мошенники используют поддельные голосовые сообщения и звонки для обмана. К примеру, жертвы получают сообщения от украденных аккаунтов в мессенджерах, в которых просится перевести деньги. И чтобы убедиться в подлинности запроса, мошенники присылают аудио с голосом жертвы, созданное с помощью нейросети.
Нейросети также используются для подделки голоса известных личностей. Некоторые руководители компаний и госслужащие столкнулись с ситуацией, когда преступники контактируют с их сотрудниками от их имени, используя подделанные голосовые сообщения и данные из социальных сетей. Мошенники иногда представляются главой другого населённого пункта или даже высокопоставленными чиновниками. Они используют нейросети, чтобы вызвать эмоции и доверие, чтобы жертва поверила в необходимость перевода средств на безопасный счёт.
Эксперты рекомендуют быть бдительными и предпринимать шаги для защиты от мошенничества, такие как использование двухфакторной аутентификации и капчи, а также ознакомление с признаками поддельных голосовых и текстовых сообщений. Важно помнить, что любые запросы о переводе денег или предоставлении личных данных должны вызывать подозрение, особенно если они не соответствуют обычным образцам общения этого человека. Кроме того, необходимо быть осторожным при открывании ссылок и скачивании файлов, особенно если они приходят от неизвестных отправителей.
По материалам Криминальные новости. Автор Евгения Енисимова