Технологию «deepfake» использовали в избирательной кампании

Индийский политик Маной Тивари (Manoj Tiwari) использовал технологию «deep fake» собственного ролика на диалекте ханиани и на английском языке для предвыборной агитации.

«Deep fake» разными языками для «позитивной избирательной кампании» сгенерировала на заказ компания по политическим коммуникациям Ideaz Factory.

В видео на хариани Тивари пытался отговорить живущих в Дели рабочих голосовать за партию-конкурента. «Deep fake» распространили по 5 800 в чатах WhatsApp, а сам ролик просмотрели более 15 миллионов человек. После того компания создала еще один ролик – на английском.

В Vice поделились видео с исследователями из Рочестерского технологического института (RIT) в Нью-Йорке, которые считают, что это действительно был дипфейк. Ideaz Factory отказался делиться дополнительной информацией об используемой технологии, но Саниат Джавид Сохраварди из RIT говорит, что «судя по срокам их работы, они использовали код vid2vid от Nvidia». Единственный другой хорошо известный алгоритм для решения этой задачи — это face2face, приложение, которое использовалось для создания фальшивого видео с участием Барака Обамы.

Пользователи WhatsApp заметили неестественные движения губ политика. В Ideaz Factory признали, что алгоритм неидеальный. Однако партия Тивари будет его совершенствовать для дальнейшего использования в избирательной кампании.

В оригинале Тивари сидит на фоне зеленой стены перед камерой. Его речь заранее согласовали с партией для создания видео. Тонкость заключается в том, что производитель для видео менял движения губ Тивари. «Мы использовали алгоритм «фальшивой синхронизации по губам» и ​​обучили его по речам Маноджа Тивари», — говорит Сагар Вишной, главный стратег в The Ideaz Factory. Фирма наняла дублирующего художника, читающего сценарий, чтобы заменить Тивари.

Бакши из БДП говорит, что реакция на эти видео была обнадеживающей. «Домохозяйки в группе сказали, что им было радостно наблюдать, как наш лидер говорит на их языке», — сказал он.
После первого ролика партия выпустила второе видео, на котором Тивари говорит уже по-английски, предназначенное для «городских избирателей Дели».

Пратик Синха, основатель AltNews, индийского веб-сайта, который проверяет заявления и утверждения, сделанные в социальных сетях, не смог определить, что видео Тивари было подделкой: «Это опасно. Впервые я увидел что-то подобное в Индии». Однако Синха считает, что запрет поддельных видеороликов с участием политиков по примеру США не будет работать в Индии, где кампании начнут обслуживать теневые фирмы.

В то же время о такой инициативе резко высказались эксперты. Так, автор общественного проекта Tattle, который создает архив контента в WhatsApp, Тарунима Прабхакар (Tarunima Prabhakar) заявил, что политики «выпустили джина из бутылки, поскольку рано или поздно кто-то использует технологию как «оружие». «Если позволять политическим партиям использовать такие виды дипфейков, то как это толковать? Слишком много субъєктива», – отметил специалист.

В настоящее время гиганты Кремниевой долины разрабатывают технологии, направленные на борьбу с дипфейками. Так, в сентябре Facebook совместно с Microsoft и коалицией «Партнёрства по искусственному интеллекту во благо людей и общества», а также научными работниками из нескольких университетов объявили конкурс на разработку технологии распознавания дипфейков. А Google в сотрудничестве с компанией Jigsaw (бывшей Google Ideas) уже выпустила датасет, в который вошло более трех тысяч таких видео.

Между тем в Китае любую публикацию заведомо ложной информации, в том числе дипфейков, сделали уголовным преступлением. Закон вступил в силу 1 января. Согласно новым нормам, все дипфейки нужно будет отмечать специальной пометкой, которая будет предупреждать пользователей о том, что это ненастоящая новость.

По материалам habr.com. Автор maybe_elf

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *