Отчёт европейского агентства по стандартам о дипфейках

По мере того как по всему миру процветают глубокие подделки, страны пытаются разработать правила, которые соответствовали бы угрозам, которые они представляют.

Усилия были предприняты ведущим европейским агентством по техническим стандартам, которое опубликовало отчёт о рисках использования искусственного интеллекта для манипулирования цифровыми идентификационными данными. Это касается не только случаев мошенничества, таких как при биометрической аутентификации, но и потенциальной возможности посеять путаницу, подорвать выборы и создать конфликты.

Отчёт, озаглавленный ETSI GR SAI 011, был опубликован группой по обеспечению безопасности искусственного интеллекта Европейского института телекоммуникационных стандартов (ETSI). Являясь некоммерческой организацией, ETSI сотрудничает с Европейской комиссией и Европейской ассоциацией свободной торговли (ЕАСТ) в установлении технических стандартов.

«Методы искусственного интеллекта позволяют выполнять автоматизированные манипуляции, которые ранее требовали значительного объёма ручной работы, и, в крайних случаях, могут даже создавать поддельные мультимедийные данные с нуля», – говорится в пресс-релизе Скотта Кэдзоу (Scott Cadzow), председателя ETSI Securing Artificial Intelligence Industry Specification Group.

Атаки Deepfake в различных медиаформатах, таких как изображения, видео, аудио и текст, могут использоваться для влияния на общественное мнение. Печально известным случаем является опубликованное в марте 2022 года фальшивое видео, на котором президент Украины Владимир Зеленский объявляет о капитуляции страны. Они также могут быть использованы в личных нападках, направленных на подрыв репутации жертвы или ее унижение, таких как поддельные видеоролики откровенного сексуального содержания.

Но ETSI также подчёркивает, что атаки deepfake нацелены на удалённую биометрическую идентификацию и аутентификацию.

Удалённая идентификация с помощью видео используется банками во многих европейских странах для открытия счетов клиентам и обеспечения соответствия требованиям. Системы распознавания говорящих также используются для аутентификации клиентов, запрашивающих транзакции. Уровень безопасности этих процедур и связанная с ними восприимчивость к атакам с использованием поддельных идентификационных данных значительно различаются, предупреждается в отчёте.

Атаки могут включать биометрические данные третьих лиц, полученные без их ведома, или основываться на чисто синтетических данных. В августе полиция Гонконга арестовала мошенников, которые использовали поддельные изображения и украденные удостоверения личности для обмана банков.

Атаки Deepfake также включают социальную инженерию, такую как так называемая атака мошенничества с генеральным директором (также называемая компрометацией деловой электронной почты), в ходе которой злоумышленник выдаёт себя за официальное лицо или вышестоящего начальника и запрашивает денежный перевод. Например, опрос ID R&D показал, что 40 процентов компаний или их клиентов уже сталкивались с атаками deepfake.

«Глубокие подделки представляют собой сложную проблему, от которой нет панацеи, но с которой лучше всего бороться с помощью комбинации мер на различных уровнях»

Говорится в отчёте

ETSI предлагает несколько решений проблемы глубокой подделки, включая просвещение и повышение осведомлённости, а также введение правил, требующих маркировки поддельных идентификационных данных. На техническом уровне исследователи могут использовать методы обнаружения, такие как медиа-криминалистика, или применять системы искусственного интеллекта, обученные распознавать манипулируемый контент.

Атаки на методы аутентификации, включая биометрические данные, могут быть устранены путём снижения вероятности того, что поддельный контент будет успешным, отмечает агентство. Эта стратегия включает в себя внедрение высокоуровневого протокола реагирования на вызовы.

При удалённой идентификации с помощью видео это может означать, что от человека требуется выполнять определённые движения, перемещать объекты или производить другие типы реакций. При голосовой аутентификации это может заключаться в том, что человека просят произнести труднопроизносимые слова, с которыми трудно справиться методами генерации звука. Среди других стратегий – измерение задержки в ответах, поскольку большая задержка может быть признаком того, что компьютер обрабатывает свой ответ.

«Более надёжным способом устранения риска для компаний и организаций может быть построение надёжных процессов, в которых важные решения и транзакции с высокой стоимостью принимаются не на основе неявной биометрической аутентификации, а вместо этого всегда подтверждаются с использованием стандартной процедуры, включающей многофакторную аутентификацию»

Заключается в отчёте
По материалам Biometrics Research Group. Автор Masha Borak

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *