В то время как губернатор Калифорнии Гэвин Ньюсом подписал закон, запрещающий распространение поддельных видео и фотографий политических кандидатов в течение 60 дней после выборов, Deepfake – базирующаяся в Амстердаме фирма по кибербезопасности, которая предоставляет технологии глубокого обучения и компьютерного зрения для обнаружения и онлайн мониторинга средств массовой информации – готовится выпустить отчет о проблеме.
По словам Deeptrace, его «исследование показало, что феномен Deepfake быстро растет в сети, причем количество видео с DeepFake почти удвоилось за последние семь месяцев до 14 678». Компания заявила, что «увеличение поддерживается растущей коммодификацией инструментов и услуг, что снижает барьер для неспециалистов в создании глубоких подделок», и, «мы наблюдали значительный вклад в создание и использование синтетических медиа-инструментов от веб-пользователей в Китае и Южной Корее, несмотря на всю совокупность наших источников, поступающих из англоязычного интернета».
Основатель Deeptrace, генеральный директор и главный научный сотрудник Джорджио Патрини, заявил, что «Deepfakes здесь, чтобы остаться, и их влияние уже ощущается в глобальном масштабе. Мы надеемся, что этот доклад стимулирует дальнейшее обсуждение этой темы и подчеркивает важность разработки ряда контрмер для защиты отдельных лиц и организаций от вредного применения подделок».
В отчете компании The State of Deepfakes: Landscape, Threats, and Impact отмечается, что академические статьи, упоминающие Generative Adversarial Network (GAN) в их названии или аннотации, публикуемые в год на arXiv — в онлайн архиве научных и математических исследовательских работ, поддерживаемых Корнельским университетом, – это «косвенный показатель того, насколько быстро улучшается качество GAN и скорость разработки новых возможностей для реальных приложений… это также указывает на то, как это исследование внедряется в технологии, доступные для более широкой аудитории за пределами научных кругов».
На самом деле. Количество научных работ выросло всего с 3 в 2014 году до более 1200 в этом году.
«Исходя из темпов прогресса ИИ, мы можем ожидать, что глубокие подделки станут лучше, дешевле и их легче будет сделать за относительно короткий период времени. Правительствам следует инвестировать в развитие технологий оценки и измерения, чтобы они могли идти в ногу с более широким развитием ИИ и помогать им лучше подготовиться к воздействию таких технологий», – цитирует Джека Кларк, директор по политике OpenAI, в своем отчете.
Исследование Deeptrace показало, что общее количество фальшивых видео в Интернете «быстро увеличивается, причем это измерение представляет собой почти 100% увеличение по сравнению с нашими предыдущим измерением (7 964), проведенном в декабре 2018 года».
Вызывает беспокойство то, что в отчете говорится: «Глубокие подделки также оказывают существенное влияние на политическую сферу», указывая на «два знаменательных случая из Габона и Малайзии, которые получили минимальное освещение в западных СМИ», в которых «глубокие подделки» были «связаны с предполагаемым сокрытием правительства и политическая клеветническая кампания. Один из этих случаев был связан с попыткой военного переворота, в то время как другой продолжает угрожать высокопоставленному политику тюремным заключением».
«Вместе взятые, эти примеры, возможно, являются наиболее убедительными признаками того, насколько глубокие подделки уже дестабилизируют политические процессы», – предупреждает доклад, подчеркивая, что «без защитных контрмер целостность демократий во всем мире находится под угрозой».
Эта угроза не ускользает от американских политиков. Закон, только что подписанный губернатором Калифорнии, был явно написан в ответ на манипулированное видео” shallowfake ” демократического спикера Палаты представителей Нэнси Пелоси, которое было опубликовано в Twitter в конце мая прошлого года, в котором ее речь была замедлена, чтобы казалось, что она пьяно невнятно произнесла свои слова. Не удивительно, что видео стало вирусным, даже будучи ретвитированным официальным аккаунтом президента Трампа и его личного адвоката в Твиттере. К 31 июля твит получил более 6,3 миллиона просмотров. И на популярной странице в Facebook его просмотрели более 2,2 миллиона раз за первые 48 часов после его загрузки.
«Примечательно, что в 2019 году появились сообщения о случаях, когда синтетическое голосовое аудио и изображения несуществующих синтетических людей использовались для усиления социальной инженерии против предприятий и правительств».
Deeptrace указал на то, что чиновники американской разведки ранее сообщали Biometric Update, что поддельные цифровые удостоверения могут использоваться для мошенничества, проникновения и даже шпионажа.
Deeptrace заявила, что «наблюдались два случая, когда реалистичные искусственные фотографии несуществующих людей использовались в фальшивых профилях социальных сетей в попытке обмануть других пользователей и получить информацию», и что «было несколько сообщений о случаях, когда якобы использовалось синтетическое голосовое аудио было использовано для обмана компаний. Хотя не было представлено никаких конкретных доказательств в поддержку утверждений о том, что аудио было синтетическим, эти случаи иллюстрируют, как синтетическое голосовое клонирование можно использовать для улучшения существующих методов мошенничества в отношении предприятий и частных лиц».
Пожалуй, самый яркий пример этого произошел в сентябре, когда стало известно, что генеральный директор неназванной энергетической компании в Великобритании был обманут в переводе 243 000 долларов США на банковский счет венгерского поставщика голосом на своем телефоне, который, по его мнению, заключался в том, что генерального директора немецкой материнской компании фирмы. Как сообщается, в телефонном голосе фальшивого голоса был акцент и «мелодия» немецкого генерального директора.
«Сообщества и форумы, занимающиеся созданием Deepfake, являются ключевой движущей силой растущей доступности DeepFake и программного обеспечения для создания DeepFake», – отмечается в отчете Deeptrace, отмечая, что «многие из этих сообществ и форумов по созданию сайтов служат отправной точкой для людей, заинтересованных в создании DeepFake, и облегчают сотрудничество между более опытными создателями».
В ходе исследования было выявлено 20 веб-сайтов и форумов сообщества, занимающихся созданием Deepfake, в которых приняли участие более 97 000 неуникальных участников из источников, которые раскрыли количество участников.
«Deepfakes представляют целый ряд угроз, многие из которых уже не являются теоретическими», – говорится в отчете, заключая, что:
- Технологии и инструменты для создания Deepfake создаются с помощью растущего числа сообществ, компьютерных приложений и сервисов;
- Он-лайн присутствие deepfake видео быстро расширяется, причем подавляющее большинство из них – видео порнографического содержания;
- Deepfake порнографии является глобальным явлением, при поддержке значительной зрительской аудитории через несколько специализированных веб-сайтов;
- Понимание одних только подделок дестабилизирует политические процессы, подрывая воспринимаемую объективность видеороликов с участием политиков и общественных деятелей;
- Deepfakes предоставляют киберпреступникам новые сложные возможности для повышения социальной инженерии и мошенничества.
«Эти выводы сделаны на основе нашего анализа ландшафта deepfake в его нынешнем виде», – говорится в отчете, подчеркивая, однако, что «скорость развития событий вокруг deepfakes означает, что этот ландшафт постоянно меняется, а быстро материализующиеся угрозы приводят к увеличению масштаба и воздействия. Крайне важно, чтобы мы были готовы к решению этих новых задач. Сейчас самое время действовать».
По материалам Biometrics Research Group. Автор Anthony Kimery.