Отчет McAfee Labs по прогнозируемым угрозам в 2020 году

Подходит к концу 2019 год, в течение которого СМИ довольно часто сообщали о вымогательских кампаниях, новом вредоносном ПО и RDP-атаках. Настало время переключить внимание на киберугрозы, ожидающие нас в будущем. Хакеры продолжают увеличивать сложность и объемы своих атак и кампаний и стремятся оставаться на шаг впереди стратегий по кибербезопасности. Они все чаще используют против нас новейшие мировые технологии.

Постоянное совершенствование искусственного интеллекта и машинного обучения приносит бесценные преимущества, но злоумышленники также учатся применять ИИ и МО для совершения самых дерзких преступлений. Создание убедительных Deepfake-видео теперь доступно хакерам без специальных навыков, и они могут использовать эту ИИ-технологию, чтобы манипулировать мнением отдельных людей и общества в целом. Компьютерное распознавание лиц, набирающее популярность средство обеспечения безопасности, также может применяться для создания Deepfake-контента и обмана людей и машин.

Исследователи McAfee прогнозируют увеличение числа целевых атак на корпоративные сети. Чтобы добыть конфиденциальную информацию, хакеры будут проводить двухэтапные вымогательские кампании.

Все больше предприятий переходят на облачные сервисы для ускорения бизнес-операций и развития совместной работы, поэтому необходимость обеспечения безопасности облака как никогда велика. По этой причине в 2020 г. число организаций, активно внедряющих контейнерные технологии, продолжит расти.

Широкое распространение роботизации и растущая потребность в защите системных учетных записей, которые используются для автоматизации, ставят вопрос о надежности интерфейсов прикладного программирования (API), задействующих значительные объемы персональных данных.

Прогнозы

1. Технология Deepfake станет доступнее для злоумышленников без специальных навыков

Возможность создания поддельного контента существует давно. Обработанные снимки использовались еще во время Второй мировой войны, чтобы заставить людей поверить в то, чего на самом деле не было. Что изменилось с развитием искусственного интеллекта? Сегодня злоумышленники могут создавать очень убедительные фальшивки, даже не являясь экспертами в области технологий. В Интернете есть сайты, на которые можно загрузить видео, а обратно скачать Deepfake. Эти очень привлекательные функции находятся в свободном доступе, и они дают возможность производить реалистичные поддельные аудио- и видеозаписи сотням тысяч потенциальных преступников.

Фальшивки, созданные по технологии Deepfake, могут стать оружием в информационной войне. Чтобы создать видеоролик, в котором из уст одного человека будут звучать слова, сказанные другим человеком, достаточно применить модель машинного обучения к выложенным в Интернете записями публичных выступлений. Сегодня хакеры могут автоматически генерировать необходимый им контент, который повысит вероятность успешной атаки на отдельных людей или целые группы. Результат такого совместного использования возможностей ИИ и машинного обучения? Массовая неразбериха.

В целом злоумышленники выбирают технологию, наиболее отвечающую их целям. Например, чтобы обмануть общественность и повлиять на результаты выборов, недружественные государства могут публиковать в сети Deepfake-видео. Помимо попыток вызвать разногласия в обществе, киберпреступники могут вложить в уста генерального директора заявление о том, что доходы компании упали или что в ее продукции имеется существенный недостаток, который потребует массового отзыва. Возможная цель распространения такого видео – манипуляция ценой акций или совершение других финансовых преступлений.

McAfee прогнозирует, что увеличение доступности технологии Deepfake для людей без специального образования приведет к увеличению объемов дезинформации.

2. Злоумышленники будут использовать технологию Deepfake для обмана систем распознавания лиц

Ранние формы компьютерного распознавания лиц появились в середине 60-х гг. Хотя с тех пор произошло немало значительных перемен, основная идея осталась прежней: с помощью этой технологии компьютер может установить или подтвердить личность человека. Распознавание лиц применяется во многих сферах, в основном для аутентификации и ответа на простой вопрос: тот ли это человек, за которого он себя выдает?

С течением времени, благодаря увеличению вычислительной мощности, ресурсов памяти и хранения эта технология получила большое развитие. В современных инновационных решениях распознавание лиц применяется, чтобы упростить повседневные операции, например для разблокировки смартфона, прохождения паспортного контроля в аэропорту или даже для узнавания преступников на улице (этой возможностью пользуются сотрудники правоохранительных органов).

Большую роль в совершенствовании распознавания лиц играет искусственный интеллект (ИИ). Один из недавних примеров – ИИ-технология Deepfake, которая позволяет создавать чрезвычайно реалистичные поддельные тексты, изображения и видеоролики, которые людям трудно отличить от оригинала. В основном deepfake используется для распространения ложной информации всеми возможными способами. Еще одна инновационная аналитическая технология, с помощью которой злоумышленники могут создавать поддельные, но очень убедительные изображения, тексты и видео, – генеративно-состязательная сеть (Generative Adversarial Network, GAN). Современные компьютеры способны быстро обрабатывать различные биометрические данные и выполнять математическое моделирование или классификацию черт лица человека. Хотя возможности и преимущества этой технологии по-настоящему впечатляют, в каждой модели распознавания лиц имеются изначальные недостатки, которыми могут воспользоваться киберпреступники.

McAfee ожидает, что вслед за широким принятием таких решений в ближайшие годы возникнет новый реальный вектор угроз. В частности, злоумышленники начнут применять Deepfake для обмана систем распознавания лиц. Компаниям необходимо хорошо понимать риски для безопасности, которые связаны с этими и другими биометрическими системами, и вложить средства в обучение по данной теме и укрепление защит критически важных объектов.

Далее

Based on the materials of "Security snd Safety"

Добавить комментарий

Ваш адрес email не будет опубликован.