Дипфейк-видео становятся все убедительнее и появляются все чаще. Как защитить свой бизнес от возможной атаки?
Дипфейки — нежелательное следствие достижений в сфере искусственного интеллекта. Популярность поддельного медиаконтента, сгенерированного алгоритмами машинного обучения, в последние годы сильно выросла. В докладе Losing our reality («Мы теряем реальность») Алиссы Миллер (Alyssa Miller) на конференции RSA 2020 приведены размышления, почему дипфейки пора рассматривать как угрозу бизнесу и как компаниям минимизировать ущерб от информационных атак с использованием этой технологии.
Как создают дипфейки
Для начала разберемся, как делают подобные видео. Чаще всего для создания дипфейков используют так называемые генеративно-состязательные сети (generative adversarial network, или GAN). Алгоритм GAN состоит из двух нейронных сетей, соревнующихся друг с другом. На этапе подготовки обе сети обучаются на реальных изображениях. После этого начинается состязательная часть: одна сеть генерирует картинки (она называется генеративной), а другая пытается определить, подлинные они или нет (эта сеть называется дискриминативной).
После этого обе сети учатся на полученных результатах и с каждым циклом все лучше справляются со своими задачами.
Спустя, скажем, миллион повторов генеративная сеть сможет создавать такие фейковые изображения, которые другая нейронная сеть с тем же уровнем развития будет не способна отличить от подлинных.
Вообще говоря, у этого метода много по-настоящему полезных применений. В зависимости от того, какие данные используются на этапе подготовки, генеративная сеть учится создавать определенные виды изображений.
В случае дипфейков алгоритм обучается на фотографиях настоящих людей. В результате создается сеть, способная генерировать неограниченное количество поддельных, но очень убедительно выглядящих изображений того или иного человека. Остается лишь склеить эти отдельные кадры в видео — и дипфейк готов. Аналогичные методы позволяют создавать фейковое аудио — судя по всему, этот способ обмана уже используют онлайн-мошенники.
Насколько убедительными стали дипфейки
Поначалу большинство видеороликов с дипфейками выглядели просто смехотворно. Но за несколько лет технология развилась настолько, что они стали пугающе убедительными. Один из ярких примеров из 2018 года — поддельное видео с Бараком Обамой, в котором он рассказал собственно о дипфейках и заодно бросил пару оскорблений в адрес действующего президента США. В середине 2019 года появилось короткое видео с лже-Марком Цукербергом, который на удивление откровенно обрисовал текущее состояние дел с личными данными людей.
Ролик ниже демонстрирует, насколько совершенной стала технология. Его создали пародист Джим Мескимен (Jim Meskimen) и автор дипфейков под ником Sham00k. Первый занимался озвучкой, а второй использовал GAN, чтобы встроить в видео лица 20 знаменитостей, которые постоянно сменяют друг друга по ходу видео. Результат поражает.
Как сам Sham00k упомянул в описании к другому ролику, где рассказал о создании упомянутого выше дипфейк-видео, «на его производство ушло более 250 часов, при этом было использовано 1200 часов отснятого материала и 300 тысяч изображений, а также создано около терабайта данных». Иными словами, такой контент — результат долгой и кропотливой работы. Однако если представить эффект, который столь убедительная дезинформация может оказать на рынки или на выборы, — оно того стоит.
По этой причине практически одновременно с публикацией приведенного выше видео на YouTube-канале Sham00k в Калифорнии законодательно запретили распространение дипфейк-видео во время предвыборной кампании. Но с этим запретом связана пара проблем. Во-первых, дипфейк-видео — это форма самовыражения (наряду с политической сатирой, например), поэтому калифорнийское вето можно рассматривать как посягательство на свободу слова.
Во-вторых, даже если отвлечься от юридической стороны вопроса, есть еще одна проблема технического характера: как отличить дипфейк-видео от подлинного?
Как можно выявлять дипфейки
Ученые по всему миру сейчас увлечены технологиями машинного обучения, а проблема дипфейков выглядит достаточно сложной и интересной, чтобы заинтересовать многих из них. Поэтому выявлению дипфейков с помощью анализа изображений посвящено изрядное количество исследовательских проектов.
Например, в статье, опубликованной в июне 2018 года, рассказывается, как анализ частоты морганий может помочь выявлять поддельные видео. Идея в том, что в большинстве случаев в открытом доступе есть не так уж много фотографий человека в момент моргания, так что нейронной сети просто не на чем учиться генерировать подобные кадры. Отметим, что люди в дипфейк-видео, доступных на момент публикации статьи, действительно моргали неправдоподобно редко. И даже если это не слишком бросалось в глаза при обычном просмотре, компьютерный анализ выявлял подделку.
Авторы двух других работ, опубликованных в ноябре 2018 года, порекомендовали искать артефакты искажения лица и несоответствия положений головы. В другой статье, за 2019-й, описана довольно сложная техника анализа выражений лица и мимики, характерных для конкретного человека.
Однако, как заметила Миллер в своем выступлении, эти методы вряд ли окажутся успешными в долгосрочной перспективе. В конечном счете упомянутые исследования подсказывают создателям дипфейков, как улучшать дискриминативные сети, что, в свою очередь, приводит к более тщательному обучению генеративных сетей — и как следствие, повышает качество подделок.
Защита от дипфейков с помощью корпоративных коммуникаций
Пока представляется маловероятным, что проблему дипфейков решат чисто технологическими методами. Скорее всего, все сведется к гонке вооружений: интернет-компании будут создавать более совершенные алгоритмы для выявлений поддельных видео, а авторы дипфейков, в свою очередь, будут улучшать свои творения, чтобы обманывать эти алгоритмы. И так по кругу.
Однако можно использовать другой подход — в частности, снижать ущерб от информационной атаки на компании с помощью эффективных корпоративных коммуникаций. Для этого потребуется тщательно отслеживать публикуемые в Сети сведения, касающиеся вашей компании, и быть готовым контролировать ситуацию в случае дезинформации.
Ниже приведены предложения Алиссы Миллер, как подготовить компанию к тому, чтобы противостоять атаке с помощью дипфейков. Кстати, многие из этих предложений будут полезны и в случае других PR-катастроф:
- минимизируйте число каналов коммуникаций компании;
- организуйте согласованное распространение информации;
- разработайте план реагирования на дезинформацию (по аналогии с инцидентами безопасности);
- организуйте централизованный мониторинг каналов и отчетность;
- следите за новыми способами обнаружения дипфейков и методами борьбы с ними.
По материалам АО «Лаборатория Касперского». Автор Alex Drozhzhin