За несколько последних лет мы наблюдали стремительное развитие технологий дипфейк (deepfake) — подделка видеозаписи лица человека и подделка голоса. Есть два варианта подделки:
- В видео — присвоение одному персонажу лица другого человека.
- Генерация полностью несуществующей личности.
Компания Nvidia опубликовала открытый код дипфейк-генератора. В результате технологии настолько развились, что приложения, создающие подобные видео, доступны практически любому. Естественно, это несет в себе определенные риски информационной безопасности — схемы фрода и атаки класса BEC значительно обогатились.
Политические, конкурентные и репутационные баталии могут выйти на новый уровень. Например, теперь возможно сгенерировать целый пул ботов с заданной социальной активностью, которые будут выглядеть даже для алгоритмов социальных сетей, как вполне существующие люди. Или снять любой видеосюжет с требуемой личностью без ее участия. Это безусловно положительный кейс использования в кинематографе или рекламной сфере — в частности, более качественная эмуляция участия актеров в трюках или возможность снять фантастический сюжет без физического участия героя. В реальной жизни дипфейк может обернуться для человека серьезными неприятностями.
В качестве средств защиты эксперты группы компаний Angara рекомендуют компаниям качественно выстраивать процессы, при котором биометрические данные такого вида не должны являться достаточным фактором для принятия значимых решений. Ошибка одного человека (а за счет создания стрессового видеосюжета — это вполне реальный кейс) не должна являться решающим фактором для критических изменений, например, финансовых. Процедура должна требовать выполнения дополнительного заранее оговоренного условия, лучше нескольких.
По материалам "Ангара Технолоджиз Груп"