Обзор: За и против использования дипфейков

Рассказываем, как менялось отношение к искуственному интеллекту и сгенерированным им изображениям.

Огромным прорывом в области создания изображений стали дипфейки – синтезированные изображения, созданные при помощи искусственного интеллекта на основе оригинальных фото- или видеоматериалов. За последние несколько лет отношение к ним не раз кардинально менялось. Использование «фальшивых лиц» давно шагнуло в прикладную плоскость, хотя начиналось всё как безобидная шутка. 

Технологический прорыв

В марте 2021-го в TikTok появился лже-Том Круз, который показывал фокусы с монетками и шутил на камеру. Выглядело это настолько реалистично, что многие поверили, будто актёр действительно зарегистрировался в популярной сети – в конце концов, чего не сделаешь ради продвижения нового фильма? Подлог в результате вскрылся: копия голливудской звезды выглядела слишком молодо, да и ростом оказалась выше оригинала. Но количество просмотров продолжало расти, и в итоге видео спровоцировало публичную дискуссию между политиками, общественными деятелями и юристами.

К тому моменту видео с «Томом Крузом» было одним из самых качественных дипфейков. Несмотря на то, что технология появилась ещё в 2017 году, на совершенствование алгоритмов уходило немало времени. Зато множились разнообразные боты и программы.

В 2020 году специалист по компьютерной безопасности Филип Талли создал цифровую копию Тома Хэнкса. У изображения имелись недостатки – например, не слишком естественная текстура кожи. Но в миниатюре кадры легко можно было принять за настоящие, да и эксперимент обошёлся Талли всего в $100. Деньги он потратил на программное обеспечение с открытым исходным кодом, куда загрузил несколько сотен фотографий актёра. Голос Хэнкса он синтезировал на собственном ноутбуке за считанные минуты: потребовались три звуковые дорожки по 30 секунд каждая. 

Кроме того, в том же 2020-м британский телеканал Channel 4 выпустил альтернативное обращение королевы Елизаветы II – и навлёк на себя гнев тысяч зрителей. 

В технологическую гонку включился и Facebook (принадлежит экстремистской организации Meta, запрещённой в России): руководство соцсети предложило $500 тыс за разработку ИИ-детектора, способного распознавать дипфейки. Победитель справлялся с этой задачей только в 65% случаев. 

Этика и закон 

К сегодняшнему дню мысль «дипфейки – угроза правам человека» сформировалась окончательно: пока некоторые развлекаются, подставляя собственные лица в кадры из супергеройских блокбастеров, кто-то намеренно нарушает закон. И речь не только о «бизнесе по дезинформации» – куда большей проблемой стало появление дипфейк-порно. Огромное количество анонимных сайтов зарабатывают деньги, предлагая юзерам воплотить свои фантазии и получить готовый ролик.

При этом одни используют лица бывших партнеров в качестве мести за расставание или расправляются с оппонентами, публично их унижая. А другие предпочитают загружать изображения известных актрис: среди официальных жертв – Скарлетт Йоханссон, Натали Портман, Эмма Уотсон и индийская актриса Анушка Шетти.

Платформы удаляют ролики, если изображенный там человек обратится с такой просьбой, но о дополнительной модерации подобного контента речи не идёт. К тому же видео приносят деньги: сфальсифицированный ролик со звездой «Гарри Поттера» на четырёх популярных порносайтах посмотрели более 35 млн раз. При этом законодатели разных стран не могут понять, как справиться с этой проблемой. Юристы открыто заявляют, что мир не был готов к появлению порнографии, созданной искусственным интеллектом.

Стран, где есть защитные механизмы, совсем немного. За дипфейк-порно можно получить срок в Шотландии – просто потому, что в законе о распространении интимных фото и видео без согласия прописана фраза «любое изображение, даже изменённое». Виновнику грозят тюремный срок до 5 лет и штраф в неограниченном размере. В Англии и Уэльсе подобный закон рекомендован юридической комиссией, но пока не принят. А вот в штате Флорида, США такое поведение расценивается как киберпреступление: в качестве компенсации жертва может потребовать от обидчика до $10 тыс.

Кроме того, американские граждане могут ограничивать несанкционированное присвоение их личности (в том числе в коммерческих целях), но эти законы варьируются от штата к штату – общего знаменателя у них нет. 

А вот в России можно выиграть суд, если сослаться на закон об авторском праве: предметом разбирательства должно стать произведение, на основе которого сделан дипфейк. В таком случае сгенерированное изображение подпадает под пункт о нелегальной переработке. 

Но дальше всех в юридическом плане пошли китайцы – в стране приняли закон, в соответствии с которым запрещено создание любых дипфейков, если изображенный на них человек не дал своего согласия. Также регулируется сам оборот цифровых изображений: нельзя создавать и распространять дипфейки в случаях, когда применение технологии является угрозой национальной безопасности, нарушает общественный порядок, посягает на права и интересы граждан или несёт в себе ложную информацию. Кроме того, сгенерированные нейросетью изображения, разрешённые законом, должны быть промаркированы. 

Использование дипфейков в развлекательных целях никак не регулируется юридически, а потому вызывает беспокойство у представителей многих профессий. Скандалом обернулось появление Брюса Уиллиса в российской рекламе. Сначала появилась информация, что он продал отечественной компании права на своё изображение, однако впоследствии агент Крепкого орешка эти слова опроверг. Затем выяснилось, что российская компания заключила сделку, согласно которой может использовать цифровую копию актёра.

Но на передовицах уже возник вопрос: кому же принадлежит Брюс Уиллис? Вскоре стало ясно, что судебное разбирательство возможно только в том случае, если дипфейк «усугублен» какой-нибудь дополнительной проблемой. Речь идёт, скажем, о том же ролике непотребного характера, клевете, попытке совершить мошенничество или политической агитации. Тогда пострадавшая сторона вправе рассчитывать на расследование в гражданском или уголовном поле.

Некоммерческое использование

Прошлой осенью в России при поддержке Института развития интернета вышел дипфейк веб-сериал под названием «ПМЖейсон». Ситком рассказывает о том, как Джейсон Стэйтем после пятилетних съёмок в стране остаётся жить в провинции, а на 60-летие к нему приезжают друзья – Киану Ривз, Марго Робби и Роберт Паттинсон. Всего отсняли 10 эпизодов по 5 минут – в них Стэйтем влюбляется в кухарку, воюет с медведем и спасает отряд МЧС.

Никаких контрактов подписано не было, однако создатели подчеркнули, что использование образов голливудских звёзд в пародийных целях не нарушает авторских прав. Кроме того, проект остаётся в рамках закона, поскольку не порочит честь, достоинство и деловую репутацию актёров. Модерацию на YouTube ролики тоже прошли без особых проблем. 

А в начале 2023-го года британский стриминг ITVX выпустил стилизованный под реалити-шоу сериал Deep Fake Neighbour Wars. Он рассказывает об обычных жителях южного Лондона, вот только в качестве доставщика выступает Идрис Эльба, Ким Кардашьян водит автобус, а мама-одиночка Грета Тунберг воюет с соседями – флористом Конором МакГрегором и строительницей Арианой Гранде. В рецензиях шоу называют прорывом, которое «не стремится никого обмануть», а также активно применяют термин «мокьюментари» (псевдодокументалистика), что в целом истине не соответствует. 

В музыкальных проектах тоже активно применяются дипфейки: Кендрик Ламар и Канье Уэст выпустили клипы, в которых использовался искусственный интеллект. А в 2020-м один из участников America’s Got Talent с помощью камеры «превратился» в сидящего неподалёку от него судью конкурса, чем шокировал всех присутствующих в зале. Но шалость в итоге удалась: публика пришла в восторг. Несколько месяцев спустя на том же шоу благодаря технологии Metaphysic «воскресили» Элвиса Пресли, и на это немедленно обратили внимание голливудское агентство талантов CAA и студия Miramax

Неуверенный шаг в будущее

Точно можно сказать одно: дипфейки только набирают силу, и различный креатив будет валиться на зрителей всё чаще. Тем более что ИИ ощутимо облегчает работу многих людей и даже целых отделов. Например, специалистов по визуальным эффектам: если в «Социальной сети» Дэвида Финчера актёра Джоша Пенса, сыгравшего одного из близнецов Уинклвосс, снимали с датчиками захвата движения, а на этапе пост-продакшена приставляли ему голову Арми Хаммера, то сегодня процесс замены проходил бы гораздо быстрее.

Сюда же входит возможность «оживления». Раньше в таких случаях использовался цифровой грим, а на лицо актера наносились особые точки, на которые затем накладывалась или рисовалась с нуля определённая модель. Теперь на помощь пришли дипфейки. В прошлом году Первый канал «воскресил» Владислава Галкина, и его 8-минутное появление в «Диверсанте» разделило публику на два лагеря. Примерно то же произошло, когда на экранах телевизоров неожиданно возник Жорж Милославский.

Добавим, что посмертное использование цифровых копий не регулируется никакими юридическими нормами. Более-менее приближенный к этой теме закон приняли в Нью-Йорке, причём недавно, в 2020-м. Он затрагивает право на публичность, у которого в местном законодательстве есть свои нюансы и трактовки. Открыт и вопрос защиты персональных данных: голос остаётся вполне себе биометрическим параметром, который можно использовать в не самых благих целях.

Если возвращаться к плюсам, то с помощью ИИ отлично решаются и логистические проблемы: пандемия для многих киношников могла пройти спокойнее. Наконец технологию можно использовать в рамках нынешней культуры отмены. Решение спорное с моральной точки зрения, но безусловно выгодное с экономической. Если бы Ридли Скотт воспользовался этой идеей, а не спешно переснимал сцены «Всех денег мира» с обвинённым в неподобающем поведении Кевином Спейси, то сэкономил бы $10 млн.

С другой стороны, нейросети могут выступать и как инструмент цензуры, что тоже требует введения правового регламента. В конце концов, не может же каждый менять готовое произведение под свой вкус? Подобные вопросы всё ещё находятся в серой зоне. 

Но пока одни опасаются, что их личности украдут или будут десятилетиями эксплуатировать за копейки (в некоторых голливудских контрактах уже появляется пункт про использование «права на симуляцию изображений и голосов»), другие пытаются не только приноровиться к меняющейся реальности, но и заработать.

Волшебное зеркало

Так, продюсеры используют альтернативный способ омоложения звезд как главную фишку. Такими в своё время были 3D и система ароматизации фильмов. В новом «Индиане Джонсе» Харрисон Форд предстанет перед зрителем сильно помолодевшим. Как признался сам актёр, наблюдать себя в таком виде ему было жутковато. И добавил, что «не хочет знать, как это работает, но это работает»

А грядущая лента известного любителя технологий Роберта Земекиса и вовсе положила начало разработке новых инструментов ИИ для кино, телевидения и других сфер развлечений. В картине «Здесь», основанной на графическом романе Ричарда МакГуайра, омолодят коллег по «Форресту Гампу» Тома Хэнкса и Робин Райт, но сделают это по-особенному.

«Наш сложный и эмоциональный фильм просто не сработает, если актёры не будут превращаться в более молодые версии самих себя»

Заявил Земекис

Волшебство сотворят с помощью Metaphysic – эту технологию уже прозвали «зеркалом молодости». Её главное отличие от аналогов в том, что дипфейк генерируется в режиме реального времени и накладывается поверх изображения актёра. Таким образом потоковая передача идет со скоростью до 30 кадров в секунду, и никакого постпродакшена просто не требуется. 

Но у дипфейков есть и другой путь: некоторые эксперты считают, что разработчики могут обучить машинные алгоритмы воспроизводить определенные манеры и голос того или иного артиста, не взаимодействуя с его биометрическими параметрами. Какой именно вариант окажется предпочтительнее – нам только предстоит узнать.

По материалам Кинорепортёр. Автор Анна Ентякова

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *