Deepfake: когда подделка аудио и звука для социальной инженерии станет массовой угрозой

К 2022 году 30% всех кибератак будут нацелены на порчу данных, на которых тренируется нейросеть, а также кражу готовых моделей машинного обучения, считают в Gartner. Пока это относительно далекое будущее, но что стало реальностью уже в этом году – это социальная инженерия с помощью «дипфейков». Алексей Парфентьев, руководитель отдела аналитики «СёрчИнформ» рассказывает, как это работает и приводит примеры атак.

– Атаки с использованием нейросетей и технологии deepfake перестали быть фантастикой и концепцией для далекого будущее. Нейросети научились реалистично заменять лица на фото и видео. Вкупе с похожей, уже реализованной технологией синтезированной речи (машинное обучение по образцу голоса) это становится проблемой, т.к fake-видео можно будет использовать для ведения информационных войн и кибер-мошенничества. 

Исходники алгоритмов для синтеза речи есть в свободном доступе, и мошенничество может стать массовым в ближайшее время. Уже завтра может прийти письмо или сообщение с неизвестного номера, но содержащее видео или голосовое сообщение от близкого человека, где он просит срочно перевести деньги на новый номер или на эту банковскую карту. И вы не задумываясь поверите этому, ведь вы сами видите и/или слышите близкого человека. Ограничивает мошенников только то, что нужно собрать и настроить образцы. 

Facebook совместно с Microsoft, MIT, Калифорнийским университетом в Беркли, Оксфордским университетом и некоторыми другими организациями недавно анонсировал конкурс на разработку технологии разоблачения deepfake. Ирония заключается в том, что этим глобальные компании могут сделать мошенничества только более вероятными, так как deepfake обучается, отметая неправильные или нереалистичные варианты. Получив дополнительную технологию разоблачения, она сможет довольно быстро использовать ее для еще лучшего состязательного обучения. Простыми словами можно сказать так: чем больше разоблачать deepfake, тем точнее станет эта технология.  

Что касается примеров атак, в сентябре стало известно о первом мошенничестве с использованием deepfake. Но было подделано не изображение, а голос. Генеральному директору британской компании «позвонил» немецкий коллега и попросил перевести третьей стороне $243 тыс. Качество подделки было настолько хорошо, что злоумышленник подозрений не вызвал.  Этот случай вызывает обоснованные опасения о применении биометрии для финансовых операций, так продвигаемую банками в последнее время. Впрочем, банковская отрасль так же в курсе последних трендов и не сидит сложа руки. К примеру, в последней версии приложения Сбербанк биометрический вход решили по умолчанию отключить – оставив испытанный годами цифровой код. 

Пока это единственный пример, но очень вероятно, что о других пока просто не стало известно. Другие публичные примеры поддельных видео прямых угроз для простых людей или компаний не несли. Их задачей было дискредитировать популярных селебрити (ролики интимного содержания с голливудскими звездами Скарлетт Йохансон и Натали Портман) или продемонстрировать возможности технологии (например, кусок фильма Матрица, с Уиллом Смитом вместо Киану Ривза).

Пока примеров атак на сами нейросети, как и подобной технологии нет, но эксперты прогнозируют их появление. Исследователи из Gartner считают, что к 2022 году 30% всех кибератак будут нацелены на порчу данных, на которых тренируется нейросеть и кражу готовых моделей машинного обучения. Тогда, например, беспилотные автомобили могут начать принимать пешеходов за другие объекты. Тогда речь будет идти не о финансовом или репутационном риске, а о жизни и здоровье простых людей. 

По материалам СёрчИнформ. Автор Алексей Парфентьев.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *