Учёные хотят помешать нейросетям копировать реальность

В реальном мире мы полагаемся не только на внешность, чтобы идентифицировать человека. Точно так же в цифровом мире нам нужно выйти за рамки физической биометрии и учитывать передовые технологии, такие как ИИ и машинное обучение (ML), которые распознают поведенческие черты. Рассмотрим гипотетический пример: ваш сосед, Лин, стучит в вашу дверь, чтобы одолжить газонокосилку. Вы уверены, что одолжили ей это, потому что, во-первых, вы узнаете Лин (физиологию). Во-вторых, для вас не является неожиданностью видеть вашего соседа у входной двери (контекст). В-третьих, Лин заимствовал газонокосилку раньше (история), и в результате вы оцениваете (интеллект) риск одолжить ей газонокосилку как низкий. Все эти факторы в совокупности создают высокий уровень уверенности в этом конкретном взаимодействии. Таким же образом, AI и ML способны учиться распознавать поведение, соответствующее поставленной задаче, и принимать решения за доли секунды. В мобильной коммерции поведенческая аналитика может оценить пассивную биометрию того, как человек взаимодействует со своим телефоном: как он печатает, проводит пальцами по веб-сайтам и приложениям и перемещается по ним. Из этих отдельных точек данных можно создать профиль пользователя, который мошенникам сложно подделать. AI и ML решения также эффективны, потому что они учатся. Чем больше образцов, тем умнее будет идентификация. Они также могут быть динамичным присутствием. Известный как непрерывная проверка, множественные поведенческие биометрии могут быть объединены в фоновом режиме, чтобы постоянно проверять человека, без этого дополнительного уровня безопасности, вызывающего любое нарушение вообще. Важно отметить, что эти методы аутентификации не требуют обширной личной информации. Вам не нужно знать дату или место рождения Лин, ее судимость, банковский счет или девичью фамилию, чтобы одолжить ей газонокосилку. Вам просто нужно знать достаточно, чтобы узнать Лин и быть уверенным, что ей можно доверять в этом взаимодействии.
Пока самые известные и популярные видео, изготовленные с применением технологии Deepfake, — это пародии на политиков и знаменитостей. Однако эта техника может быть использована и для вмешательства в политические процессы, а также с целью манипулирования общественным мнением.
(Shutterstock)

Видеоматериалы, сфальсифицированные с использованием искусственного интеллекта, становятся все более изощренными. Как швейцарские эксперты оценивают риски, связанные с противоправным использованием технологий изготовления так называемых дипфейков (deepfakes)? И когда, по их мнению, появятся автоматизированные способы отличать подделку от оригинала? 

В компьютерной лаборатории на территории огромного кампуса Федеральной политехнической школы Лозанны (EPFL) небольшая группа ученых внимательно рассматривает изображение розовощёкого, темноволосого кудрявого человека в очках. «Да, это сделано качественно», — говорит Турадж Эбрахими (Touradj Ebrahimi), глава экспериментального отдела Лозаннского политеха, занимающегося основами стандартизации фотоизображений и технологиями их сжатия с использованием машинно-обучаемых нейросетей (Multimedia-Signal Processing Group EPFL).

Внешне он очень похож на человека на экране, однако на деле такого человека не существует. Ученые «создали» путем наложения его портретного фото на фотографию основателя компании Tesla Илона Маска. И так получился дипфейк — цифровое изображение или видео, сфальсифицированное с помощью искусственного интеллекта, причем так, что обычный глаз не будет в состоянии отличить оригинал от подделки. И это только один из примеров таких подделок (некоторые из них получаются более реалистичными, другие менее, но тенденция ясна), возникших в ходе сотрудничества команды ученых под руководством Т. Эбрахими с компанией Quantum Integrity (QI), специализирующейся на кибер-безопасности.

Как швейцарские ученые хотят помешать нейросетям копировать реальность
Как тебе такое, Элон Маск? Что будет, если фотографию американского бизнесмена-изобретателя скомбинировать с портретным фото профессора Лозаннского политеха Тураджа Эбрахими (Touradj Ebrahimi)? Результат — в центре коллажа. 
(EPFL/MMSPG/swissinfo)

Задача стояла разработать программное обеспечение, способное обнаруживать отредактированные и изменённые изображения, включая так называемые дипфейки. Используя машинное обучение, программа сама учится все более эффективно различать подлинное и поддельное. Как это работает? Так называемый «генератор» постоянно вводит в программу большие объемы фальсифицированных изображений, а так называемый «детектор» пытается выяснить родовые признаки фальшивки и разработать потом на этой основе алгоритм распознавания «глубоких фейков».

«Интенсивная „тренировка“ может в итоге дать машине способность обнаруживать подделки так же, как это делает человек. Чем больше использовать программу, тем совершеннее и эффективнее она становится», — объясняет Т. Эбрахими, и эта способность, видимо, может стать очень востребованной. Сфабрикованные фото и видео существуют с момента зарождения прессы как таковой. Однако современные технологии возвели «искусство фальсификации» до невиданных высот. Сейчас мы можем приставить к телу одного человека голову другого лица и заставить его произносить слова, которых он никогда не говорил.

По мнению экспертов Международного центра управления рисками (International Risk Governance Center IRGC), созданного при EPFL, производство фальшивых видеороликов стало сейчас «во много раз быстрее, проще и дешевле» благодаря распространению удобных для пользователя программных инструментов и платных услуг в режиме онлайн. «Вот как раз именно потому, что всё развивается так быстро, нам и необходимо понять, куда это может нас завести, какие сектора, группы и страны это может задеть».

Таково мнение заместителя директора центра Энгус Коллинс (Aengus Collins). Пока дипфейки в основном используются при производстве порноконтента, однако недалек тот час, когда они окажутся в арсенале разного рода «троллей» и «политтехнологов». В течение последних нескольких лет технология производства дипфейков распространяется даже быстрее, чем предполагало большинство экспертов, и скоро она точно выйдет за пределы шоу-бизнеса и просто развлечений.

Быстро развивающаяся область

Когда профессор Эбрахими только начинал три года назад сотрудничать с компанией Quantum Integrity в рамках проекта по разработке программы обнаружения таких подделок, большинство исследователей и экспертов ими почти не интересовались. В то время основные клиенты QI были больше озабочены проблемой фотошопа, применяемого для фотоманипуляций фиктивных ДТП, или ущерба, якобы нанесенного объектам недвижимости, которые потом использовались в мошеннических схемах по получению денег со страховых компаний.

Однако примерно в 2019 году качественный рубеж был пройден: дипфейки достигли такого уровня сложности, что было решено посвятить гораздо больше времени именно этой проблеме в рамках отдельного совместного проекта. «Я даже и представить себе не мог, что [эта технология] будет развиваться так быстро», — говорит исполнительный директор компании QI Энтони Саакян (Anthony Sahakian). 

Однако потом он сам воочию убедился, насколько далеко зашли методы создания дипфейков в плане реалистичности результатов. Совсем недавно эта технология позволила, например, изменить лицо на фотографии на паспорт, причем так, что при этом остались нетронутыми все печати и другие официальные отметки. Эксперты озабочены не только усовершенствованием собственно технологий манипулирования изображениями. По данным нидерландской компании Deeptrace, занимающейся кибер-безопасностью, к сентябрю 2019 года, всего за девять предыдущих месяцев, количество видеодипфейков в интернете увеличилось почти вдвое и составило 14 678 единиц.

Области риска

Пока большинство жертв дипфейков, сделанных для преднамеренного нанесения вреда, — женщины, чьи лица были «вставлены» в фото или видео порнографического содержания. По информации Deeptrace, в 2019 году такие подделки составляли 96% всех видео-дипфейков в интернете. Какие-то из них оказались на специализированных дипфейковых порносайтах, а остальные распространялись в качестве так называемой «порномести», с тем чтобы прицельно запятнать репутацию жертв.

Как швейцарские ученые хотят помешать нейросетям копировать реальность
Турадж Эбрахими (Touradj Ebrahimi) и Энтони Саакян (Anthony Sahakian), генеральный директор компании Quantum Integrity, планируют запустить первый прототип программного обеспечения для обнаружения видео-подделок уже в июне 2020 года.
(Alain Herzog)

«Домогательства, шельмование, преследование и издевательства в интернете — это постоянно возникающие темы», — говорит Э. Коллинс. При этом, как ни странно, нам известно довольно мало случаев использования дипфейков в мошеннических целях. Но если такое и происходило, то пока большинство таких случаев представляло собой голосовые подражания, дабы обманным путём заставить жертв отправить преступнику деньги. Тем не менее деловой мир сейчас учитывает и возможность такой угрозы.

Неслучайно ведущие страховые компании, в том числе Zurich Insurance, Swiss Re и BNP Paribas, направили недавно своих представителей на научно-практический семинар по рискам, связанным с такими подделками, организованный IRGC при Лозаннском политехе. Э. Саакян из компании QI подтверждает, что особую обеспокоенность у страховщиков вызывает сейчас возможность использования, например, фальшивых видеороликов в исках по несчастным случаям, авариям, ДТП или по делам, якобы связанным с причинением материального ущерба.

«Существующие в настоящее время технологии уже делают „KYC“ [„Знай своего клиента“], известный метод проверки и верификации личности клиента, устаревшим и ненужным», — говорит он, имея в виду метод отсеивания потенциальных мошенников, популярный у менеджеров в банковской среде. Но одновременно распространение дипфейков также поставило вопрос и о том, насколько с их помощью реально вмешиваться в текущие политические процессы.

Обоснованность этих страхов нашла подтверждение самое позднее в момент публикации в сети сфабрикованного видео, на котором спикер Палаты представителей США Нэнси Пелоси говорила так, словно была пьяной. Эта подделка была сделана на основе устаревшей технологии — так называемый shallowfake («фейк неглубокого залегания»). Но, как говорит Т. Эбрахими, «это яркий образец того, что можно сделать даже с такой технологией, и того, какие намерения могут лежать в основе таких фальшивок».

Приспосабливаясь к новой цифровой реальности

Эксперты, и в том числе Э. Коллинс, предупреждают, что использование в политике сфабрикованных медиа нужно рассматривать в соответствующем контексте. «Возможно, дипфейки и могут сыграть определённую роль, например, если будет поставлена цель вмешаться в выборы, но я бы не стал переоценивать риск таких фальсификаций, иначе вы рискуете не увидеть леса за деревьями», — предупреждает он. По его мнению, дипфейки на самом деле прежде всего свидетельствуют о «возникновении некоего разрыва между темпами развития цифровых информационных экосистем и развитием способности общества адаптироваться к ним».

Э. Коллинс снова в связи с эти указывает на использование дипфейков в качестве инструмента интернет-травли. «Поэтому возникает вопрос, насколько адекватно правовая система реагирует на причинение личности вреда в интернет-пространстве, — говорит он. — Встает также вопрос, как избавиться от вредоносного цифрового контента, когда он уже создан, как найти его создателя и как применить против него существующие правовые методы, особенно, если создатель дипфейка находится в другой юрисдикции».

«Противник тоже учится»

Технология видеофальсификации уже вызывает кое-где панику, но не все согласны с тем, что такие ролики настолько уж реалистичны, чтобы действительно быть в состоянии обмануть коллективного пользователя с его миллионами глаз и огромным совокупным опытом пребывания в сети. Эксперты говорят, что сегодня качество дипфейков все ещё во многом зависит от навыков их создателей, а эти навыки сегодня не везде еще на высоте. Как нам объяснил эксперт по биометрической безопасности Себастьян Марсель (Sébastien Marcel), замена лица на видео неизбежно приводит к определенным дефектам изображения.

При этом он подчёркивает, что если создатель не будет лениться и приложит специальные усилия для того, чтобы внимательно отредактировать и откорректировать конечный результат, то тогда фальшивку действительно будет очень трудно обнаружить. Себастьян Марсель и его коллеги из Исследовательского института Idiap Research Institute in Martigny на юго-западе Швейцарии работают сейчас над собственной версией программы, обнаруживающей сфабрикованные изображения и изменённые голоса в видеоматериалах.

«Сегодня эту проблему еще не решить, — говорит С. Марсель. — Это постоянно расширяющаяся область исследований, и именно поэтому мы планируем вложить в её изучение дополнительные ресурсы». В качестве стартового импульса этот некоммерческий НИИ использует участие в конкурсе на разработку выявляющего дипфейки программного обеспечения, который сейчас проводит Facebook (см. инфобокс). Но изменит ли что-то в реальном мире сама возможность обнаруживать фальшивки? Это остаётся спорным вопросом. «Такая программа вряд ли станет палочкой-выручалочкой, — говорит Э. Коллинс. — Противник тоже учится, и он всегда найдёт способы обойти возводимые нами преграды».

Как Турадж Эбрахими, так и Себастьян Марсель говорят, что не ставят перед собой цель создать некий на сто процентов безотказный инструмент. Но они все-таки хотят научить программу-детектор предвидеть, в каком направлении могут двигаться создатели фальшивок, и соответствующим образом корректировать методы, используемые этим инструментом, для их обнаружения. Это важно, потому что в будущем, по их словам, можно будет менять не только, например, лицо, но вообще полное изображение человека.

«Качество дипфейков будет повышаться, поэтому нам необходимо совершенствовать и наши программы-детекторы таким образом, чтобы соотношение затрат и выгод от создания злостных подделок было не в пользу их создателей», — говорит он. Профессор Эбрахими из EPFL полагает, что какое-то объективно важное событие, например президентские выборы в США, может стать стимулом для злоумышленников ускорить свою работу. Но как скоро настанет время, когда даже натренированный человеческий глаз не сможет больше отличить подделку от оригинала и когда справиться с этой задачей будут в состоянии только машины? «Это вопрос максимум нескольких лет», — резюмирует Турадж Эбрахими.

Платформы социальных сетей против видеоподделок

В марте 2020 года социальная сеть «Твиттер» ввела новую норму, которая запрещает «делиться» специально препарированным или манипулированным медиаконтентом, потенциально способным нанести вред обществу. Среди этих мер особая маркировка таких твитов и отображение предупреждений для пользователей.

Хостинговая платформа YouTube, принадлежащая Google, указала, что не собирается мириться с откровенно поддельными видеоматериалами, особенно связанными с выборами и с переписью населения США в 2020 году.

Социальная сеть Facebook выделила более 10 млн. долл. на финансовую поддержку проектам в области обнаружения, идентификации и противодействия видеофальшивкам. Как Facebook, так и Google опубликовали в открытом доступе коды-исходники сфальсифицированных видеоизображений, с тем чтобы помочь ученым в разработке эффективных методов их распознавания.

По материалам Swissinfo. Автор Нина Шулякова

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *