Оценка потенциального влияния deepfake на безопасность

Норвежские исследователи нашли первое полезное применение DeepFake-технологии: с ее помощью предложили анонимизировать людей на фото и видео

Контекст проблемы: эпоха постправды и фейковых новостей

Бурное развитие информационных технологий в конце XX-XXI века оказало существенное влияние на изменение социальной организации, обусловив возникновение информационного общества и цифровой экономики. Формирование мировых масс-медиа, эволюция технологий компьютерной обработки информации, развитие Интернета и социальных сетей – эти и другие факты коренным образом изменили механизмы производства и распространения массовой информации, значительно расширив возможности для манипулирования индивидуальным и общественным сознанием.

Сами по себе обман (дезинформация) и манипуляция общественным сознанием являются давно известными формами психологического воздействия на личность и общество. В ХХ веке началось их широкое применение в противоборстве между государствами и их коалициями. В классической работе советского периода по психологической войне отмечалось, что «дезинформация, искажение картины составляют главное содержание механизма психологической войны империализма».

Актуализация проблемы на современном этапе, лингвистически обозначенная маркерами «фальшивых новостей» (Fake News) и «эпохи постправды» (Post-truth era), во многом обусловлена новейшими изменениями медийного ландшафта. В настоящей работе мы опустим политический контекст, благодаря которому тема приобрела широкую известность (выборы президентом США Д. Трампа, выход Великобритании из Евросоюза (Brexit), «российское вмешательство» в политические процессы), поскольку он имеет второстепенное значение.

Во второй половине прошлого столетия основным триггером изменений в области средств массовой информации выступало телевидение. В силу одновременного сочетания визуального и звукового сигналов транслируемый телевидением символический образ реальности получил невиданные прежде качества простоты восприятия и убедительности в сочетании с тотальностью его распространения. С учетом широкого проникновения телевизоров практически в каждую семью этот символический образ реальности постепенно приобрел все большее значение в восприятии самой реальности индивидами и обществом в целом, фокусируя внимание на отдельных ее компонентах и оттеняя другие, а иногда и создавая ложные образы, не имеющие под собой реальных оснований.

Газеты, радио и телевидение, а позже – и Интернет завоевали роль основного источника получения информации для населения, причем иногда безальтернативного. По словам Н. Больца, «массмедиа – это индустрия реальности современных обществ, и нередко изображение в массмедиа само и есть то событие, о котором сообщают массмедиа… Поскольку совершенно очевидно, что у современного человека мировосприятие заняло восприятие информации, – продолжает ученый, – он уже не может самолично сравнивать предлагаемую информацию с «действительностью». Ибо где она, эта действительность, стоящая за медиа?».

Следующим этапом изменения медийного ландшафта стало развитие технологий Web 2.0, прежде всего социальных сетей. Наделение самих интернет-пользователей функционалом медиа (создания и распространения контента для массовой аудитории) самым радикальным образом трансформировало информационную среду и способствовало утрате традиционными СМИ монополии на массовое распространение информации. Люди получили простые инструменты прямого донесения информации до глобальной аудитории, легко преодолевающие прежние барьеры национальных границ. Также существенно возросла скорость распространения контента в мировой сети.

В течение прошлого столетия, когда печатные СМИ, радиостанции и телевидение управляли потоками общественной информации, журналистское сообщество установило строгие профессиональные стандарты для контроля качества и содержания новостей. Однако вследствие произошедшего изменения информационной среды «медиакомпании как никогда испытывают острую конкуренцию, которая, в свою очередь, заставляет их пересматривать бизнес-модель. При этом акцент все больше переносится с качества на сенсацию. Больше сенсации – больше просмотров – выше стоимость рекламы».

Постоянная гонка за интернет-трафиком заставила даже серьезные новостные агентства снизить планку внутренней цензуры, дабы поспеть за своими конкурентами и блогерами как новыми акторами медийного поля. Что же касается последних, то для многих из них эмоциональный и провокативный контент стал чуть ли не основным способом расширения аудитории подписчиков. Акцент на эмоциональные доводы в ущерб или даже взамен рациональной аргументации в дискуссиях стал первой характерной чертой «эпохи постправды».

Вторым ее признаком стала четко выраженная сегментация интернет-аудитории на отдельные группы, которые стремятся искать и публиковать преимущественно ту информацию, которая подтверждает и укрепляет их взгляды, игнорируя при этом конкурирующие мнения. Этому процессу во многом способствовало активное внедрение технологий анализа больших данных, создавшее возможность предоставления каждому пользователю персонализированной новостной ленты в социальных сетях, основанной на его предпочтениях и сетевой активности. Благодаря точному таргетингу и отбору подходящего контента человек оказывается в уютном «информационном пузыре», экранирующем от нарушающих гармонию его индивидуальной картины мира информационных раздражителей. Как образно сказано в одной публикации, «если вы за белых, то вам покажут мнения только белых, если за красных – только красных».

В совокупности эти факторы способствуют еще большей поляризации мнений, которая сегодня и так достигла беспрецедентного уровня. Иначе говоря, мы склонны смотреть и читать то, чему готовы верить, но отказываемся воспринимать информацию, которая не отражает наших убеждений. При этом пользователи не только потребляют, но активно ретранслируют понравившиеся им сведения, превращая ленты своих страниц в эхо-камеры. Здесь проявляется действие так называемых «информационных каскадов», благодаря которым люди передают информацию, распространяемую другими, без беспокойства относительно проверки ее достоверности, тем самым придавая ей большей правдоподобности в ходе данного процесса. В результате этого ложь может распространяться гораздо быстрее, чем раньше.

Постправда стала квазисредой, контекстом, который делает возможным распространение ложных новостей. Она возникает, если люди игнорируют факты, а правда уже не играет существенной роли, уступая место популистской риторике. Да, манипулирование коллективным сознанием в массмедиа не является чем-то новым. Но новизна ситуации в том, что засоренность СМИ и особенно социальных сетей сфальсифицированными фактами превысила критический порог, что привело к появлению качественно нового феномена – искривленного информационного пространства.

Эксперты выделили комплекс факторов, способствующих распространению фейков:

  • недостаточный уровень осведомленности населения в затрагиваемых вопросах;
  • отсутствие возможности фильтрации подобных материалов в поисковых системах на предмет недостоверности;
  • большая восприимчивость обывателей к так называемым «шоковым» новостям по сравнению с обыденными информационными сводками;
  • благоприятствующий позитивному восприятию фейков информационный фон в медиа-мейнстриме.

Эксперт РСМД П. Кошкин дополняет этот перечень такими факторами, как склонность многих политиков верить в теории заговора; общественное недоверие к экспертизе, антиинтеллектуализм и популизм; переизбыток информации в Интернете; развитие журналистики, основанной на «утечках» или так называемых «эксклюзивах».

Зафиксируем три важных особенности современной информационной среды:

  • высокая скорость распространения информации;
  • акцент на эмоциональной составляющей информации в ущерб смысловой;
  • слабая восприимчивость раздробленных групп аудитории интернет-пользователей к аргументам, противоречащим их убеждениям.

Эти факторы в своей совокупности создают благодатную среду для распространения разного рода фейков. И именно в этот момент появляется новая беспрецедентная технология, позволяющая искусственно синтезировать человеческие изображения – «глубокие фейки» (deepfakes). Глубокие фейки обладают особенно разрушительным потенциалом, потому что они возникли во времена, когда становится все труднее отличить реальные факты от выдуманных.

Понятие и особенности «глубоких фейков»

Понятие «глубокие фейки» (deepfakesобразовано сочетанием терминов «глубокое машинное обучение» (deep learning) и «фейки» (fakes). Его происхождение связывается с одноименным ником пользователя интернет-платформы «Reddit», который заявил в 2017 году, что использует технологии машинного обучения для того, чтобы имплантировать изображения лиц знаменитостей в порнографические видео.

Глубокие фейки являются продуктом недавних достижений в формах искусственного интеллекта, известных как «глубокое обучение» (deeplearning), в котором набор алгоритмов, называемых «нейронными сетями», обучается понимать правила и воспроизводить паттерны (модели) путем обработки больших данных (Google, например, использовала эти технологии для развития мощных алгоритмов классификации изображений для своей поисковой системы).

Глубокие фейки возникают из отдельного направления машинного обучения, в котором пары алгоритмов сводят друг с другом в «генеративные соперничающие сети» (generative adversarial networks), сокращенно GANs. В таких нейронных сетях один алгоритм, называемый «генератором», создает контент, смоделированный на основе исходных данных (например, искусственные изображения кошек на основе банка данных реальных фотографий кошек), в то время, как второй алгоритм, именуемый «дискриминатором», пытается выявить искусственно созданный контент (в приведенном выше примере – выявить фейковые изображения кошек). Поскольку каждый алгоритм постоянно тренируется противостоять другому, подобное сопряжение может вести к быстрому прогрессу, позволяющему GAN создавать высокореалистичный фейковый фото- или видеоконтент.

Основным материалом, который требуется для работы нейросетей (GAN), являются фото- или видеозаписи человека. Современные нейросети на основе использования технологий GAN позволяют искусственно генерировать высокореалистичные изображения людей на фото или видео либо встраивать изображения других людей в существующие видеозаписи. Например, программист компании «Uber» Филипп Ванг создал сайт thispersondoesnotexist.com, который выдает бесчисленное количество фотографий несуществующих людей на основе комбинации реальных фотографий.

«Глубокие фейки» (deepfakes) – технологии искусственного синтеза человеческого изображения, основанные на использовании нейросетей и искусственного интеллекта, позволяющие создавать высокореалистичные фото- и видеоизображения людей либо производить модификацию фото-, аудио- и видеоматериалов.

Хотя современные нейросети, использующие технологию глубокого обучения, могут создавать фейковые фото-, аудио- и видеозаписи, под глубокими фейками чаще всего понимаются именно искусственно синтезированные видео, содержащие динамическое изображение и голос людей. Преимущественно о них будет идти речь в настоящем докладе.

Однако нужно при этом не забывать и о других возможных форматах глубоких фейков, прежде всего фотографиях. Так, например, недавно новостные интернет-ресурсы писали о созданном приложении «DeepNude», которое использует нейронные сети для удаления одежды с изображений женщин, делая их реалистично обнаженными в несколько кликов. Оно использует готовое фото человека и создает новое, но уже без одежды.

Обычно отправной точкой для появления глубоких фейков называется 2017 год, когда первые образцы сгенерированных нейросетями видео (в основном это были «порно со знаменитостями») начинают распространяться на известной социальной новостной платформе-агрегаторе «Reddit». Собственно, тема привлекла к себе широкое внимание после выхода статьи Саманты Кол из «Vice News», в которой рассказано о созданном с помощью искусственного интеллекта фейковом порно с известной израильской актрисой Галь Гадот.

Одним из наиболее известных примеров глубоких видеофейков является ролик под названием «Вы не захотите поверить тому, что Обама скажет в этом видео!» («You Won’t Believe What Obama Says In This Video!»), размещенный известным ресурсом «BuzzFeed» в апреле 2018 года в профилактических целях. В нем бывший президент США Барак Обама в первом части произносит отдельные провокационные фразы, типа «Президент Дональд Трамп – полное дерьмо». Во второй части видео показан настоящий человек Джордан Пил, который говорит эти слова, демонстрируя тем самым, что видеоизображение Обамы является искусственно созданным глубоким фейком. Роликом наглядно показана опасность данных технологий.

В 2019 году в Интернете получили вирусное распространение поддельные видео с участием главы Палаты представителей Конгресса США Нэнси Пелоси, генерального директора Facebook Марка Цукерберга и персонажа сериала «Игра престолов» Джона Сноу.

Очевидно, что глубокие фейки завтрашнего дня будут еще более яркими и реалистичными. Несмотря на то, что они представляют собой лишь новую технологию для реализации старого метода фальсификации, уникальность и беcпрецедентный характер им придает сочетание двух свойств:

1) использование убедительного и популярного видео формата;
2) сложность обнаружения фальшивых видео, изготовленных с помощью технологии «deepfake».

В отличие от фотоизображений, возможность искусственной коррекции которых широко известна и применяется многими пользователями социальных сетей, видеозаписям люди склонны доверять гораздо больше. Сам формат видео позволяет зрителям выступать непосредственными очевидцами события, избавляя их от необходимости решать, стоит ли доверять чьему-либо рассказу о нем, что повышает его убедительность. Кроме того, современные социальные сети и мессенджеры, включая новую популярную молодежную платформу «TikTok», позволяют легко делиться видеозаписями, способствуя их быстрому распространению.

Поэтому при создании высококачественного вирусного deepfake-видео оно способно распространяться с огромной скоростью в глобальном масштабе, особенно в сочетании с целенаправленными усилиями по его продвижению в сети. При этом люди будут склонны ему верить, поскольку зрительно не заметят каких-то признаков подлога, а официальная реакция властей и СМИ не всегда будет в состоянии опровергнуть содержащуюся в нем информацию. В любом случае она будет приходить с задержкой, когда вирусная эпидемия глубокого фейка уже запущена. К тому же в эпоху постправды никакое опровержение не сможет переубедить определенные целевые аудитории, для которых содержащийся в фейковом виде контент подтверждает их взгляды и убеждения.

Все вышеизложенное убеждает нас внимательней присмотреться к данной новой технологии и рассмотреть варианты ее возможного применения.

Глубокие фейки имеют ряд полезных приложений. Модифицированные видеоизображения исторических персонажей, например, могут создаваться для целей обучения детей. Но глубокие фейки также могут использоваться для деструктивных целей. Как говорилось выше, данные технологии используются для создания «порно со знаменитостями» путем встраивания в порнографические видео изображений лиц известных актеров, политиков и прочих известных личностей. Поисковые системы выдают большое количество ресурсов и контента по запросу «deepfakeporn».

Существенное значение имеет то, что подобные технологии обладают широким потенциалом распространения. Коммерческие и даже бесплатные сервисы по изготовлению глубоких фейков уже появились на открытых торговых площадках (например, приложение «FakeApp») и будут развиваться дальше. Как образно выразился исследователь искусственного интеллекта Алекс Шампандард (Alex Champandard), «это уже не ракетостроение», отметив при этом, что приличная видеокарта позволяет создавать deepfake-видео за несколько часов, используя специализированное программное обеспечение.

Развитие подобных сервисов встретит мало препятствий. Экспертами единственным практическим способом сдерживания процесса изготовления глубоких фейков называется ограничение им доступа к материалам для тренировки – аудио- и видеозаписям людей для моделирования – в целях совершенствования GAN. Однако очевидно, что широкое распространение социальных сетей и стремление людей активно размещать в них свои фотографии дает богатую базу для работы нейросетей. Это тем более верно в отношении публичных персон, которые постоянно находятся в фокусе фотообъективов и видеокамер.

Поэтому можно сделать вывод, что в ближайшее время способность создания высококачественных подделок станет потенциально доступной для каждого, кто имеет достаточные заинтересованность и знания относительно того, куда можно обратиться за помощью. И поскольку технологии глубоких фейков распространяются, постоянно увеличивающееся число акторов будет способно убедительно манипулировать фото- и видеоконтентом способом, который ранее был доступен только для голливудских студий или наиболее обеспеченных разведывательных служб.

Показательно, что этой проблемой в настоящее время уже озаботились иностранные государства. Так в сентябре 2018 года в США несколько членов Палаты представителей Конгресса обратились к директору Национальной разведки с просьбой проинформировать конгрессменов и общественность о возможностях использования новых технологий для изготовления фальшивых аудио-, видео- и фотоизображений.

В июне 2019 года состоялось слушание в комитете по разведке Палаты представителей, по итогам которых было принято решение «изучить угрозы национальной безопасности, создаваемые поддельным контентом с поддержкой искусственного интеллекта, способы его обнаружения и борьбы с ним, определить роль, которую должны государственные органы, частный сектор и общество в целом, чтобы противостоять потенциально мрачному будущему “пост-правды”». 12 июня 2019 году в Палату представителей был внесен законопроект по борьбе с распространением дезинформации посредством введения ограничений на технологии подделки видео с помощью глубоких фейков.

В этой связи возникает потребность в выявлении возможных направлений деструктивного использования технологий глубоких фейков.

Потенциальные угрозы национальной безопасности, связанные с использованием глубоких фейков

Представляется, что технологии глубоких фейков будут востребованы самым широким кругом субъектов: спецслужбами иностранных государств; террористическими и экстремистскими организациями; политическими партиями, общественными и иными некоммерческими организациями; PR- и рекламными агентствами; отдельными лицами.

Выделим основные потенциальные угрозы национальной безопасности, связанные с использованием глубоких фейков. Все они – направления деструктивного применения возможностей технологий искусственного синтеза человеческого изображения перечисленными выше субъектами.

Читать далее

По материалам "Свободная мысль". Автор Смирнов Александр

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *