Дипфейки появились несколько лет назад и быстро обрели огромную популярность. За короткий срок сеть заполонили поддельные ролики с участием певцов, политиков и других известных людей.
В искусственно сгенерированных видеороликах главные роли в знаменитых фильмах достались совсем другим актёрам, а президенты начали делать смелые заявления, удивляющие общественность. И все это благодаря дипфейкам, которые изначально рассматривались исключительно как источник развлечения или инструмент для мошенников, а сейчас всё чаще используются в бизнес-процессах. Рассказываем, что такое дипфейки, какая от них польза, есть ли вред и какую службу они способны сослужить бизнесу сегодня.
Как создают дипфейки
Дипфейк — это технология на основе нейросетей, которые могут не только распознавать лица и голоса людей по фотографиям и аудиозаписям, но и моделировать их. Само слово «дипфейк» (deepfake) образовалось из двух понятий на английском языке: «глубокое обучение» (deep learning) и «фальшивка» (fake). Если второй термин в расшифровке не нуждается, то на первом стоит остановиться подробнее.
Глубокое обучение — один из видов машинного обучения, в основе которого лежат искусственные нейронные сети. Глубоким такое обучение называют потому, что оно состоит из нескольких слоёв, благодаря которым компьютер обучается решению задач в процессе собственной обработки данных.
Как бы запутанно это ни выглядело на первый взгляд, понять, как создаются дипфейки, довольно легко. Представьте себе капризного покупателя в магазине, который намерен выбрать идеальную шляпу. Ему приносят первую — не тот цвет, приносят вторую — не тот материал, приносят третью — перья не того размера. И так снова и снова продавец предлагает решение, а покупатель его отвергает, пока идеальная шляпа не будет найдена.
Так, если представить их примитивно, работают генеративно-состязательные сети, которые обычно и лежат в основе дипфейка. В этом алгоритме одна нейронная сеть (сеть-генератор) генерирует образцы, а другая (сеть-дискриминатор) старается отличить правильные от неправильных.
Анализируя фотографии пропавшего человека, нейронные сети помогают найти его по камерам наружного наблюдения. В этом состоит способность технологии распознавать изображения. Загрузив в компьютер несколько изображений человека или запись его речи, можно обучить машину моделировать его внешность и голос. Чем больше изображений и записей, тем эффективнее подбор, а значит, реалистичнее дипфейк.
Как собрать миллионы просмотров фальшивым видео
Зачастую дипфейк-видео носят развлекательный характер. Наибольшую популярность обрели ролики с голливудскими звёздами, где актёры неожиданно для себя и зрителей оказываются героями фильмов, в которых никогда не снимались. Подобные работы регулярно появляются последние несколько лет, но до сих пор не приелись зрителям.
К примеру, в феврале 2020 года пользователи активно обсуждали видеофантазию на тему «Что, если бы исполнители главных ролей в фильмах по мотивам комиксов Marvel Том Холланд и Роберт Дауни — младший были героями легендарного „Назад в будущее“?». Спустя полтора года заинтересованность в дипфейках не угасла: в октябре 2021-го в сети размышляли, как бы выглядел Супермен и Ведьмак Генри Кавилл в образе агента 007.
Некоторые авторы дипфейков даже сами могут претендовать на звание знаменитостей благодаря тому, как легко их работы «помещаются» в инфопространство популярной культуры. Тот же дипфейк с Томом Холландом оказался столь удачным, что у самого актёра спросили о возможном участии в ремейке «Назад в будущее». В ответ Холланд заявил, что подобная инициатива действительно была.
Так забавное дипфейк-видео породило яркий инфоповод, из-за которого читатели специализированных сайтов о кино снова и снова возвращались к оригинальному ролику. Неудивительно, что на момент написания статьи осенью 2021 года дипфейк собрал на YouTube более 11 млн просмотров. Результат в равной степени мотивирующий и вызывающий беспокойство.
В чём риск новой технологии
Очевидные риски, связанные с дипфейками, заключаются в доступности технологии и фантастической правдоподобности изображений и роликов. В сети легко найти десятки приложений, позволяющих пользователям поиграть с нейросетями. Самый обычный человек может установить Deepfakes web β или Zao и почувствовать себя героем любимого клипа, наложив своё фото на лицо музыканта. Умельцы, обладающие знаниями в машинном обучении и техникой достаточной мощности, без труда создают видео, которые невозможно отличить от реальных невооруженным глазом.
Именно таким был ролик под названием You Won’t Believe What Obama Says In This Video («Вы не поверите, что Обама сказал в этом видео»), опубликованный весной 2018 года на YouTube-канале BuzzFeedVideo. В этом видео Барак Обама в грубой форме критиковал своего преемника Дональда Трампа. В действительности Обама ничего подобного не говорил — текст произнёс известный режиссер, комик и подражатель голоса Обамы Джордан Пил. Его речь и движения губ внедрили во вполне безобидное видео с бывшим президентом США.
Завирусившееся видео собрало более 8,7 млн просмотров, но успех сложно назвать однозначным. На его фоне Business Insider описал технологию как «будущее фейковых новостей». Такой вывод получился оттого, что дипфейк способен не только отправить знаменитость в фильм для взрослых, но и отомстить знакомому, поместив его лицо в компрометирующее видео. Именно в этом и состоит главная угроза технологии — мошенничество и дезинформация, способные обернуться репутационным крахом.
Тревожной фантазией на этот счёт делится портал Insurance Business Australia. Авторы публикации просят читателей представить, что их компания блестяще закрыла год и готова поделиться впечатляющими финансовыми результатами. Генеральный директор записывает видео с подробным отчётом обо всех успехах для акционеров и выкладывает его в сеть. Неожиданно стоимость акций падает. Выясняется, что во всём виноват киберпреступник, который залил изменённое видео, где глава компании рассказывает о плачевных результатах работы.
«Они [дипфейки] могут представить мирового лидера говорящим вещи, которые потенциально способны развязать войну. Они могут представить генерального директора рассказывающим о доходах так, что это поднимет цену акций или заставит её упасть. Довольно дико, какой урон это может нанести и какую выгоду от этого получит хакер», — заявил управляющий директор и руководитель группы киберпрактики австралийской страховой компании Gallagher Джон Фарли.
5 отраслей, которые начали использовать дипфейки
Говоря об угрозах дипфейков, эксперты подразумевают мошенников или интернет-шутников. При этом многие учёные, кинематографисты и представители бизнеса видят в дипфейках решение производственных проблем. Они уверены: дипфейки способны принести огромную пользу бизнесу, если использовать их во благо. Причём технология способна решать задачи в самых разных областях.
Дизайн и архитектура
Один из примеров позитивного потенциала дипфейков — нейросеть под названием GauGAN, разработанная технологической компанией Nvidia. Программа позволяет создать примитивный рисунок — вроде тех, что каждый хоть раз делал в Paint, — и сгенерировать из него реалистичное изображение.
Название сети вдохновлено творчеством французского художника Поля Гогена, известного своим примитивным стилем живописи. И если Гоген изображал реальность в слегка наивных образах, то GauGAN делает ровно противоположное: превращает самый наивный, «детский» рисунок в объёмное изображение.
Находка для дизайнеров, художников и архитекторов, GauGAN сокращает путь между эскизом и финальным изображением, а также позволяет оценить потенциал идеи ещё на стадии наброска.
Бизнес-коммуникация
В обиход нескольких компаний вошла разработка британского стартапа Synthesia. Его основатели предложили менеджерам создать собственного клона, который представляет сотрудника и компанию партнёрам, а также заменяет физическое присутствие в условиях пандемии. Локдаун и тотальный переход на удалёнку отучили многих бизнесменов от встреч за чашкой кофе и совместных партий в теннис. Налаживать коммуникацию приходится посредством видеозвонков и электронных писем. Именно в этом и пригодилась технология дипфейка: вместо менеджера, который в этот самый момент составляет годовой отчёт, виртуальный клон презентует компанию перед потенциальным клиентом или договаривается о встрече с партнёрами.
«Вместо того чтобы отправлять электронное письмо с текстом „Привет, у нас всё в силе в пятницу“, вы можете видеть и слышать меня самого», — поясняет Джаред Ридер, сотрудник одной из крупнейших в мире аудиторско-консалтинговых компаний EY, где уже успели оценить разработку.
Интересно, что в EY к таким аватарам относятся по-разному. Некоторым кажется, что дипфейк устраняет элемент человеческого общения. Другие убеждены, что вряд ли найдётся что-то более человеческое, чем общаться с клиентом собственным голосом и в собственной манере, пусть на самом деле собеседником оказывается клон.
Реклама
Светлое будущее ждёт технологию дипфейков в рекламе, причём как в коммерческой, так и в социальной. Несколько лет назад с помощью нейросетей английский футболист Дэвид Бекхэм на девяти языках призвал подписать петицию по борьбе с малярией под названием «Малярия должна умереть». Звезде спорта не пришлось перезаписывать ролик девять раз и учить иностранные языки — его речь на разных языках смоделировали с помощью технологии дипфейка.
Ещё один яркий пример — успех новогодней рекламы Сбера, в которой герой фильма «Иван Васильевич меняет профессию» Жорж Милославский оказался в 2020 году. Тот самый герой, призывавший советских граждан хранить деньги в сберегательной кассе, попал в будущее с его моментальными платежами, доставкой еды, заказом такси и другими сервисами Сбера.
Кино
Пожалуй, в кино дальше прочих продвинулись в освоении дипфейков. Вскоре кино сможет частично или полностью избавиться от необходимости снимать опасные трюки с участием живых людей. Рисковать на съёмках не придётся ни самим актёрам, ни их дублёрам, ведь высокая реалистичность созданных нейросетями изображений позволит заменить их в съёмках погонь на высоких скоростях или сцен с прыжками по крышам.
Отдельное место технология наверняка займёт в процессе озвучивания. При адаптации фильмов для разных регионов многие нюансы речи актёров теряются в переводе. С дипфейками этого удастся избежать.
«Используя технологию дипфейка, как и в случае с рекламой, фильм можно скомпилировать с учётом не только языковых, но и национальных особенностей для разных стран. По счастью, современные дипфейк-технологии позволяют это сделать с помощью умных алгоритмов», — объяснил директор по развитию Iris Devices, резидента «Сколково», Александр Горшков.
Образование
В сфере образования дипфейки пока не так популярны. Однако уже сейчас крупные образовательные платформы могут использовать нейросети для создания обучающих видео. Собрав достаточное количество снимков и записей голоса преподавателя, возможно создать десятки познавательных видео без необходимости реальных съёмок.
При этом сами курсы станут увлекательнее. Представьте, что лекцию по литературе прочтёт не профессор, а сам Фёдор Достоевский — пусть даже сгенерированный нейросетью на основе терабайтов информации о писателе.
Какое будущее ждёт дипфейки в бизнесе
Идея представить курс лекций об отечественной литературе от лица Достоевского так же заманчива, как и проблематична покупка прав на использование его образа у потомков или других правообладателей. С подобной проблемой сталкиваются все, решившие использовать в своей работе дипфейки с участием известных людей. А тем, кто хочет попробовать технологию в своей компании, предстоит получить разрешение у сотрудников, чьи образы будут сгенерированы нейросетями.
Оценивая будущее технологии, сложно игнорировать новостные ленты, которые всё чаще сообщают о злоумышленниках, задержанных за распространение дипфейков. В некоторых регионах уже появились законы, регулирующие использование технологии. Так, в Калифорнии это касается политической агитации перед выборами, а также использования изображений людей в порнографических видео. Одновременно создаётся всё больше программ для распознавания фальшивых видео. Такие программы позволяют отличить реальное изображение от сгенерированного и безошибочно определять подделки.
Несмотря на меры предосторожности, лишь немногие компании сегодня осмеливаются внедрять дипфейки в бизнес-процессы. По словам технического директора американской компании ZeroFOX, специализирующейся на кибербезопасности, коммерческое использование дипфейков растёт из года в год. При этом инвесторы не спешат вкладываться в технологию. По мнению специалистов, это связано с негативным образом дипфейков, созданным СМИ, а также с открытыми вопросами этичности и легальности использования технологии.
Ответ специалисты видят в современных системах безопасности, а также ограничениях на законодательном уровне. Профессор прикладной этики Университета Вирджинии Дебора Джонсон считает: «Мы не должны так бояться технологии. К ней нужно применять дифференцированный подход. Да, требуются законы, запрещающие плохие и опасные вещи вроде разжигания ненависти или порнографии из мести. Люди и общество должны быть защищены от этого. Но у нас не должно быть полного запрета для сатиры и свободы слова. И растущее коммерческое использование технологии выглядит многообещающе, как минимум в переводе фильмов на иностранные языки и создании увлекательных образовательных видео».
Почти два года назад мы обсуждали, кто и как на них будет зарабатывать.
По материалам ПАО Сбербанк