Использование поддельных видео- и аудиотехнологий может стать серьезной киберугрозой для бизнеса в течение следующих двух лет, прогнозирует специалист по кибер-аналитике CyberCube.
В своем новом отчете «Социальная инженерия: размытие реальности и фальшивки» CyberCube сообщает, что возможность создавать реалистичные аудио- и видео-фейки с помощью ИИ и машинного обучения неуклонно растет. Кроме того, последние технологические достижения и возросшая зависимость бизнеса от видеосвязи ускорили это развитие.
Из-за растущего числа видео- и аудиосэмплов деловых людей, доступных в настоящее время в Интернете, отчасти из-за пандемии, киберпреступники имеют большой объём данных, на основе которых можно создавать фотореалистичные модели людей, которые затем могут использоваться для оказания влияния и манипулирования.
Кроме того, «картографирование рта» – технология, созданная Вашингтонским университетом, может использоваться для имитации движения рта человека во время речи с предельной точностью. Это дополняет существующие технологии глубокой подделки видео и аудио.
«Поскольку доступность личной информации в Интернете увеличивается, преступники вкладывают средства в технологии, чтобы использовать эту тенденцию. Новые и появляющиеся методы социальной инженерии, такие как глубоко поддельные видео и аудио, коренным образом изменят ландшафт киберугроз и становятся как технически осуществимыми, так и экономически жизнеспособными для преступных организаций любого размера.
Автор отчета, глава CyberCube по стратегии кибербезопасности Даррен Томсон
Представьте себе сценарий, в котором видео, на котором Илон Маск дает советы по инсайдерской торговле, становится вирусным – только это не настоящий Илон Маск. Или политик объявляет о новой политике в видеоклипе, но, опять же, это нереально. Мы уже видели, как эти глубоко фальшивые видео используются в политических кампаниях; Это лишь вопрос времени, когда преступники применит ту же технику к предприятиям и состоятельным частным лицам. Это может быть так же просто, как поддельное голосовое сообщение от старшего менеджера, инструктирующее персонал произвести мошеннический платеж или перевести средства на счет, созданный хакером».
В отчете также исследуется растущее использование традиционных методов социальной инженерии: использования человеческих уязвимостей для получения доступа к личной информации и системам защиты. Одним из аспектов этого является социальное профилирование, метод сбора информации, необходимой для создания фальшивой личности целевого лица, на основе информации, доступной в Интернете или из физических источников, таких как украденные медицинские записи.
Согласно отчету, размытость внутренних и деловых ИТ-систем, в сочетании с растущим использованием онлайн-платформ, упрощает социальную инженерию для преступников. Кроме того, технология искусственного интеллекта позволяет создавать масштабные профили в социальных сетях.
В отчете страховщиков предупреждают, что они мало что могут сделать для борьбы с развитием технологий глубоких фальшивок, но подчеркивает, что выбор рисков будет приобретать все большее значение для кибер-андеррайтеров.
«Нет серебряной пули, которая приведет к нулевым потерям. Однако андеррайтеры все же должны пытаться понять, как данный риск соотносится с структурами информационной безопасности. Также важно обучить сотрудников тому, как они будут готовы к глубоким ложным атакам»
Даррен Томсон
Страховщикам также следует учитывать потенциал технологии глубокой фальсификации, которая может привести к большим убыткам, поскольку она может быть использована в попытке дестабилизировать политическую систему или финансовый рынок. В марте 2019 года киберпреступники использовали программное обеспечение на основе искусственного интеллекта, чтобы выдать себя исполнительного директора и потребовать его голосом мошеннического перевода 243000 долларов.
По материалам CyberCube