ФБР выпустило предупреждение о том, что злоумышленники всё чаще пытаются использовать дипфейки для того, чтобы устроиться на удалённую работу в технологическом секторе и получить таким образом доступ к ценным данным. Масштабы бедствия, впрочем, неясны.
«Кем вы видите себя в нашей компании через пять лет»
ФБР распространило предупреждение о том, что киберкриминал начал использовать дипфейки и украденные персональные данные для того, чтобы пытаться устраиваться на удалённую работу в технологическом секторе. В случае успеха, хакеры могут получать легитимный доступ к данным компании и клиентов и использовать их во вредоносных целях. Уже отмечены несколько случаев, когда злоумышленники стремились устроиться на позиции, которые обеспечили бы им доступ к личным данным клиентов нанимателей, финансовой информации, корпоративным базам данных и пр.
Центр обработки жалоб на преступления в интернете (IC3), подразделение ФБР, специализирующееся на цифровом криминале, утверждает, что всё чаще сталкивается с заявлениями нанимателей о том, что они имели дело с дипфейками при проведении удалённого собеседования с соискателями.
«Отмечено использование подмены голоса или возможные голосовые дипфейки, в ходе онлайн-собеседований с соискателями, — говорится в публикации ФБР. — В ходе таких собеседований движения тела и губ человека на экране не полностью совпадали со звуком речи говорящего. Были случаи, когда кашель, чихание или другие слышимые действия не совпадали с визуальной составляющей». Там же указывается, что доказано, как некоторые соискатели на удалённые позиции использовали чужие персональные данные.
«Дипфейки могут включать видео, изображение или аудиозапись, достаточно убедительно видоизменённые, чтобы изображать другое лицо, его высказывания и действия, которых на самом деле не было»
Указывается в публикации Бюро
Глубинный обман
Дипфейк или Deepfake — это конкатенация слов «глубинное обучение» (англ. deep learning) и «подделка». Этим термином обозначают методику синтеза изображения и звуки при посредстве искусственного интеллекта. Deepfake можно использовать для замены определенных элементов изображения на желаемые образы. Наиболее активно дипфейки использовались для создания поддельных порнографических роликов с участием известных лиц, а также т.н. «порно-мести», однако в последние годы многие сетевые ресурсы запретили размещение у себя подобного контента.
Дипфейки также используются для создания поддельных новостей и провокаций, хотя известны случаи, когда их использовали в области искусства. Например, музей Сальвадора Дали во Флориде в честь 115-летия подготовил с помощью искусственного интеллекта весьма жизнеподобный видеообраз испанского художника, который общался с посетителями, причём именно общался, а не воспроизводил предварительно записанные фразы.
Кроме того, цифровые маски, позволяющие полностью менять внешность актёров, уже давно и всё с большей убедительностью применяются в кинематографе.
Однако чаще всего о дипфейках говорят именно в контексте вредоносных действий. Их использование при попытке найма — явление относительно новое и довольно угрожающее.
В апреле 2022 г. Европол выпустил предупреждение о том, что дипфейки смогут стать инструментом, с помощью которого киберпреступные организации будут пытаться совершать различные мошеннические действия, а также пытаться подменять улики при расследованиях и т.д.
«Дипфейки на сегодняшний день сделать относительно просто, правда, потребуется мощный и дорогостоящий GPU для использования GAN — нейросети, с помощью которой создаются поддельные видео. Таким образом, создание злонамеренных дипфейков вполне может быть доступно почти всем желающим, а не только организованному киберкриминалу. Между тем, степень угрозы, которую дипфейки представляют при их использовании в мошеннических или манипулятивных целях, достаточно велика. Но уже существуют решения, которые позволяют идентифицировать подделки, и, вероятно, скоро их придётся интегрировать в корпоративные периметры безопасности»
Говорит Никита Павлов, эксперт по информационной безопасности компании SEQ
По материалам CNews. Автор Роман Георгиев