Потери от deepfake могут быть очень серьезными

Использование поддельных видео- и аудиотехнологий может стать серьезной киберугрозой для бизнеса в течение следующих двух лет, прогнозирует специалист по кибер-аналитике CyberCube.

В своем новом отчете «Социальная инженерия: размытие реальности и фальшивки» CyberCube сообщает, что возможность создавать реалистичные аудио- и видео-фейки с помощью ИИ и машинного обучения неуклонно растет. Кроме того, последние технологические достижения и возросшая зависимость бизнеса от видеосвязи ускорили это развитие.

Из-за растущего числа видео- и аудиосэмплов деловых людей, доступных в настоящее время в Интернете, отчасти из-за пандемии, киберпреступники имеют большой объём данных, на основе которых можно создавать фотореалистичные модели людей, которые затем могут использоваться для оказания влияния и манипулирования.

Кроме того, «картографирование рта» – технология, созданная Вашингтонским университетом, может использоваться для имитации движения рта человека во время речи с предельной точностью. Это дополняет существующие технологии глубокой подделки видео и аудио.

«Поскольку доступность личной информации в Интернете увеличивается, преступники вкладывают средства в технологии, чтобы использовать эту тенденцию. Новые и появляющиеся методы социальной инженерии, такие как глубоко поддельные видео и аудио, коренным образом изменят ландшафт киберугроз и становятся как технически осуществимыми, так и экономически жизнеспособными для преступных организаций любого размера.
Представьте себе сценарий, в котором видео, на котором Илон Маск дает советы по инсайдерской торговле, становится вирусным – только это не настоящий Илон Маск. Или политик объявляет о новой политике в видеоклипе, но, опять же, это нереально. Мы уже видели, как эти глубоко фальшивые видео используются в политических кампаниях; Это лишь вопрос времени, когда преступники применит ту же технику к предприятиям и состоятельным частным лицам. Это может быть так же просто, как поддельное голосовое сообщение от старшего менеджера, инструктирующее персонал произвести мошеннический платеж или перевести средства на счет, созданный хакером».

Автор отчета, глава CyberCube по стратегии кибербезопасности Даррен Томсон

В отчете также исследуется растущее использование традиционных методов социальной инженерии: использования человеческих уязвимостей для получения доступа к личной информации и системам защиты. Одним из аспектов этого является социальное профилирование, метод сбора информации, необходимой для создания фальшивой личности целевого лица, на основе информации, доступной в Интернете или из физических источников, таких как украденные медицинские записи.

Согласно отчету, размытость внутренних и деловых ИТ-систем, в сочетании с растущим использованием онлайн-платформ, упрощает социальную инженерию для преступников. Кроме того, технология искусственного интеллекта позволяет создавать масштабные профили в социальных сетях.

В отчете страховщиков предупреждают, что они мало что могут сделать для борьбы с развитием технологий глубоких фальшивок, но подчеркивает, что выбор рисков будет приобретать все большее значение для кибер-андеррайтеров.

«Нет серебряной пули, которая приведет к нулевым потерям. Однако андеррайтеры все же должны пытаться понять, как данный риск соотносится с структурами информационной безопасности. Также важно обучить сотрудников тому, как они будут готовы к глубоким ложным атакам»

Даррен Томсон

Страховщикам также следует учитывать потенциал технологии глубокой фальсификации, которая может привести к большим убыткам, поскольку она может быть использована в попытке дестабилизировать политическую систему или финансовый рынок. В марте 2019 года киберпреступники использовали программное обеспечение на основе искусственного интеллекта, чтобы выдать себя исполнительного директора и потребовать его голосом мошеннического перевода 243000 долларов.

По материалам CyberCube

Добавить комментарий

Ваш адрес email не будет опубликован.