Хакеры трудоустраиваются к жертвам на онлайн-собеседованиях

ФБР выпустило предупреждение о том, что злоумышленники всё чаще пытаются использовать дипфейки для того, чтобы устроиться на удалённую работу в технологическом секторе и получить таким образом доступ к ценным данным. Масштабы бедствия, впрочем, неясны.

«Кем вы видите себя в нашей компании через пять лет»

ФБР распространило предупреждение о том, что киберкриминал начал использовать дипфейки и украденные персональные данные для того, чтобы пытаться устраиваться на удалённую работу в технологическом секторе. В случае успеха, хакеры могут получать легитимный доступ к данным компании и клиентов и использовать их во вредоносных целях. Уже отмечены несколько случаев, когда злоумышленники стремились устроиться на позиции, которые обеспечили бы им доступ к личным данным клиентов нанимателей, финансовой информации, корпоративным базам данных и пр.

Центр обработки жалоб на преступления в интернете (IC3), подразделение ФБР, специализирующееся на цифровом криминале, утверждает, что всё чаще сталкивается с заявлениями нанимателей о том, что они имели дело с дипфейками при проведении удалённого собеседования с соискателями.

«Отмечено использование подмены голоса или возможные голосовые дипфейки, в ходе онлайн-собеседований с соискателями, — говорится в публикации ФБР. — В ходе таких собеседований движения тела и губ человека на экране не полностью совпадали со звуком речи говорящего. Были случаи, когда кашель, чихание или другие слышимые действия не совпадали с визуальной составляющей». Там же указывается, что доказано, как некоторые соискатели на удалённые позиции использовали чужие персональные данные.

Киберпреступники пытаются устраиваться на удалённую работу с помощью дипфейков

«Дипфейки могут включать видео, изображение или аудиозапись, достаточно убедительно видоизменённые, чтобы изображать другое лицо, его высказывания и действия, которых на самом деле не было»

Указывается в публикации Бюро

Глубинный обман

Дипфейк или Deepfake — это конкатенация слов «глубинное обучение» (англ. deep learning) и «подделка». Этим термином обозначают методику синтеза изображения и звуки при посредстве искусственного интеллекта. Deepfake можно использовать для замены определенных элементов изображения на желаемые образы. Наиболее активно дипфейки использовались для создания поддельных порнографических роликов с участием известных лиц, а также т.н. «порно-мести», однако в последние годы многие сетевые ресурсы запретили размещение у себя подобного контента.

Дипфейки также используются для создания поддельных новостей и провокаций, хотя известны случаи, когда их использовали в области искусства. Например, музей Сальвадора Дали во Флориде в честь 115-летия подготовил с помощью искусственного интеллекта весьма жизнеподобный видеообраз испанского художника, который общался с посетителями, причём именно общался, а не воспроизводил предварительно записанные фразы.

Кроме того, цифровые маски, позволяющие полностью менять внешность актёров, уже давно и всё с большей убедительностью применяются в кинематографе.

Однако чаще всего о дипфейках говорят именно в контексте вредоносных действий. Их использование при попытке найма — явление относительно новое и довольно угрожающее.

В апреле 2022 г. Европол выпустил предупреждение о том, что дипфейки смогут стать инструментом, с помощью которого киберпреступные организации будут пытаться совершать различные мошеннические действия, а также пытаться подменять улики при расследованиях и т.д.

«Дипфейки на сегодняшний день сделать относительно просто, правда, потребуется мощный и дорогостоящий GPU для использования GAN — нейросети, с помощью которой создаются поддельные видео. Таким образом, создание злонамеренных дипфейков вполне может быть доступно почти всем желающим, а не только организованному киберкриминалу. Между тем, степень угрозы, которую дипфейки представляют при их использовании в мошеннических или манипулятивных целях, достаточно велика. Но уже существуют решения, которые позволяют идентифицировать подделки, и, вероятно, скоро их придётся интегрировать в корпоративные периметры безопасности»

Говорит Никита Павлов, эксперт по информационной безопасности компании SEQ
По материалам CNews. Автор Роман Георгиев

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *