Анатомия дипфейка

Роботы из Redmadrobot Data Lab рассказывают про новости, кейсы и подходы в ИИ, которые можно переложить на нашу действительность и реально использовать.

Что происходит с deepfake

Deepfake (Deep learning + Fake) — это синтез изображений или аудио с помощью искусственного интеллекта (чаще всего используют GAN — генеративно-состязательные нейросети). Речь о серьёзном изменении данных: технология deepfake позволяет имитировать интонацию, характерные паузы между словами и жесты, акцент или корректировать эмоции при произношении слов.

Технология уже «пошла в массы» — вокруг deepfake стал появляться рынок. Например, японский стартап Deepfakes Web за $2 в час предоставит вам облако и платформу для создания фейковых видео. А Modulate из Бостона создаёт «звуковые скины», подходящие к образу вашего персонажа в видеоигре.

Согласно отчёту The State of Deepfake, с декабря 2018 года количество фейковых видео удвоилось — с 7964 до 15 тысяч. Да, 96% роликов — порно, крупные сайты вроде Reddit и Pornhub удаляют их. Но качество фейков улучшается, а создавать их становится всё проще — в открытом доступе есть приложения и код для генерации, инструкции и расширения для браузеров.

В чём проблема

Все просто — в вопрос включилась политика. Проблема в том, что одна и та же технология генерирует и Уилла Смита, гнущего ложки в «Матрице», и поддельных топ-менеджеров или государственных спикеров, ложные заявления которых уже не выглядят так забавно.
Например, технология позволяет «заставить» президента США обсуждать героев Marvel, а потом ругать своего преемника на посту.

Неоценимый инструмент в, скажем, предвыборной гонке, не правда ли? Например, вместо того чтобы искать компромат на соперника, теперь его можно создать собственноручно. К тому же это несложно, а из-за увеличения числа, повышения качества и доступности производства фейков эти риски всё активнее обсуждают в США и Европе.

В Вашингтоне, например, где тема вмешательства в выборы и использования соцсетей для распространения фейков не стихает уже который год, приняли Deepfake Report Act — документ, обязывающий Министерство внутренней безопасности США ежегодно составлять доклад об использовании технологии deepfake. Но законодатели в этой борьбе бессильны без привлечения специалистов и, самое главное, соцсетей.

ИТ наносит ответный удар

Интерес соцсетей в борьбе с фейками прямой — правительства не хотят разбираться, кто виноват, а кто нет, поэтому на все вопросы придётся отвечать руководству самой платформы. Вряд ли Марк Цукерберг горит желанием снова извиняться перед законодателями.

В сентябре Facebook объявил конкурс Deepfake Detection Challenge, пообещав вложить в инициативу $10 млн (участвовать тут). Партнёры — Amazon, Microsoft, MIT и другие. Цель соревнования — разработать эффективные способы отличать deepfake-видео и фото. По итогам состязания получится набор методов для разработки полноценного инструмента против deepfake.

Тем же вопросом озабочены и в Twitter — компания разрабатывает механизмы по обнаружению недостоверного контента. Вопрос deepfake в соцсети рассматривают отдельно, уделяя ему особое внимание. Как сообщили в самой соцсети, в борьбе с «синтетическими и манипулирующими медиа» компания намерена изучить, как распространяется недостоверный контент. В Twitter также отдельно указали, что хотят получать фидбек от пользователей и планируют быть открытыми в своих действиях.

Не обошлось и без Google — в своих проектах корпорация даже опередила «социальных» коллег. Проект по борьбе с аудиофейками компания запустила ещё в январе, а в сентябре опубликовала deepfake-датасет.

Для его съёмки были привлечены актёры, на основе кадров с которыми впоследствии создавались deepfake-видео. Получившаяся таким образом коллекция реальных и фейковых записей, полагают в компании, поможет в разработке инструментов по обнаружению такого контента.

Борьба с deepfake ведётся, но это обоюдный процесс — пока корпорации и государства ищут пути противодействия существующим методам, злоумышленники совершенствуют свои инструменты.

По материалам vc.ru. Компания Redmadrobot.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *