ИИ против кибербезопасности – каков расклад сил

Гендиректор «АйТи Бастион» Сергей Бочкарев: развитие больших языковых моделей уже начало менять ландшафт киберугроз, в 2024 году этот процесс резко ускорится

Современная экономика и государственное управление функционируют в постоянно изменяющемся ландшафте киберугроз и изменении поверхностей атак, поэтому важно помнить, что необходимо действовать на упреждение, а не реагировать на уже произошедшие инциденты. Как руководитель компании по кибербезопасности я знаю это не понаслышке. Плотно поработав с новыми технологиями весь прошлый год, поделюсь своими соображениями об ИИ в разрезе кибербезопасности.

Развитие специализированных языковых моделей

Могу сказать наверняка, что искусственный интеллект никуда не денется, его не запретят, не ограничат, ИИ будет совершенствоваться – причём как во благо человечества, так и на службе у «тёмных сил», такова реальность. Наглядный пример, как большие языковые модели уже трансформировали сферу кибербезопасности: они предоставляют командам ИБ изумительную возможность проанализировать огромные объёмы информации и получить оперативные аналитические данные с помощью простых запросов. В повседневной жизни обывателей и бизнесе сложные модели ИИ тоже продемонстрировали выдающиеся способности – в понимании и написании текста, интерпретации изображений и их создании. Всё это способствует прогрессу в различных сферах.

Однако при всей своей раскрученности и популярности большие языковые модели всё ещё ограничены в способности понимать и интерпретировать специализированные данные кибербезопасности. Поэтому в 2024 году команды ИБ перейдут к использованию малых языковых моделей. Эти подвижные специализированные модели предоставят экспертам доступ к оперативным аналитическим данным об активности хакеров. А обучение в реальном времени станет «секретным оружием», позволяя отделам информационной безопасности быстро адаптироваться к постоянно меняющемуся ландшафту угроз.

Зачем ИИ хакерам? Чтобы действовать на опережение

Как я уже упомянул выше, искусственный интеллект станет постоянным элементом нашей жизни, и дискуссия об этичном использовании генеративного ИИ будет становиться всё острее. Пока что крупные организации заняли выжидательную позицию, они «присматриваются» к ИИ и пытаются понять отношение общества к таким технологиям. А вот злоумышленники не мучают себя вопросами этики и вовсю применяют искусственный интеллект в своих интересах. Поэтому с моей точки зрения, в 2024 году хакеры будут иметь преимущество в использовании ИИ.

Как это выглядит на практике:

Фишинговые кампании становятся более продвинутыми. Злоумышленникам уже не надо тратить время на придумывание «завлекающих» текстов и ручной выбор адресатов-жертв. Всё делает нейронка.

Сбор информации о потенциальных целях автоматизируется. По заданным параметрам ИИ формирует детальный портрет жертвы и определяет слабые места – точки входа для реализации атаки.

Нашествие дипфейков. Свежий пример – раскрытая в марте 2024 года мошенническая схема с использованием дипфейка премьер-министра одной из стран, призывающего вкладывать деньги в некую инвестиционную программу правительства. Видео было сгенерировано на основе прошлогоднего интервью политика, а вот с голосом ИИ ошибся: на фейковом видео премьер-министр говорил с сильным австралийским акцентом.

Я настоятельно советую руководителям отделов информационной безопасности готовиться к приближающейся волне угроз, генерируемых ИИ.

Как оставаться киберустройчивой организацией

В условиях диджитализации бизнеса и госуправления, а также повсеместного внедрения искусственного интеллекта экспертиза по информационной безопасности должна прийти в высший менеджмент. Вопросы ИБ теперь необходимо рассматривать как и любые другие существенные бизнес-риски. Раньше я говорил, что залог сохранности данных компании — это обученный персонал, а сегодня должен добавить: руководители высшего звена тоже должны повысить уровень киберграмотности для принятия правильных стратегических решений.

По материалам РБК Компании

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *