Для борьбы с deepfake потребуется большее, чем просто код

В ходе разработки, которая должна удивить немногих в сообществе распознавания лиц, появились новые тревожные новости о том, как быстро развиваются глубокие подделки.

Алгоритмы, способные взаимодействовать с людьми и создавать целые повествования, вскоре могут стать частью «набора инструментов убеждения» пропагандистов, считает главный научный сотрудник Microsoft Эрик Хорвиц (Eric Horvitz).

В своей новой научной работе он пишет, что в ближайшем будущем тактика глубокой фальсификации и технологические достижения могут ослабить и без того шаткое представление общества о реальности.

Хорвиц предлагает список шагов, которые человечество должно предпринять, чтобы ответить на брошенный ему вызов. Хорошо это или плохо, но некоторые шаги зависят не от технологии, а от того, что люди становятся более аналитичными, когда дело доходит до информации, которую они потребляют.

Он видит две непосредственные угрозы — интерактивные глубокие подделки и композиционные глубокие подделки. Первые будут взаимодействовать с людьми таким образом, что обычному человеку будет практически невозможно понять, что он разговаривает с кодом.

Вторым будут глубокие фейки с предысториями. Создание сцен, в которых живёт deepfake. Это может быть сцена несчастного случая или подборка роликов в социальных сетях, на которых человек появлялся на вечеринках по случаю дня рождения на протяжении многих лет.

Недавние исследования вызывают тревогу. Хорвиц ссылается на исследование 2020 года в области нейронного голосового кукольного театра, которое создает «неотразимое» зрелище, когда движения лица в реальном времени соответствуют словам, произносимым за кадром актёром.

Сопоставление аудио с выражением лица и создание реалистичной визуализации, пишет он, было сделано за 5 миллисекунд с помощью процессора Nvidia 1080Ti. За два года до этого исследователи продемонстрировали глубокие нейронные модели, генерирующие реалистичную речь из текста.

А рабочие аватары, разработанные для имитации своеобразного стиля общения человека, приводят к появлению аватаров, которые реалистично двигаются лицом и так далее.

Гибридные аватары также находятся в стадии разработки. Они передают управление разговором deepfake аватару, но имеют реальную человеческую модель, соответствующую подделке, которую можно хитро подменить в случае необходимости.

Эти и другие разработки закладывают основу для реалистично интерактивных глубоких подделок, пишет Хорвиц.

Композиционные глубокие подделки – это тоже «перспективное и реальное направление», пишет он. Они создают повествования, а не просто изображение или аватар, созданный для выполнения задачи.

Этот кошмарный сценарий включает в себя возможность полностью сфабриковать инциденты, которые будут, так сказать, соединены между реальными событиями. Цель состоит в том, чтобы сфабрикованное событие органично сочеталось с реальными событиями, вызывая доверие к фальшивке.

Частично ответ на этот вопрос заключается в создании среды, способствующей хорошей местной и международной журналистике. Выявление доверенных людей с достоверной информацией всегда было решающим шагом в борьбе с дезинформацией. Наряду с этим Хорвиц предлагает проекты по повышению медиаграмотности.

Происхождение контента, протоколы проверки подлинности, водяные знаки и другие цифровые «отпечатки пальцев» также могут облегчить задачу по предотвращению мошенничества в отношении личностей и событий.

Конечно, упоминаются обнаружение с помощью новых алгоритмов, а также саморегулирование и государственное регулирование. Но Хорвиц, похоже, хочет сказать, что всё это не сработает, если не будет сопровождаться личной ответственностью.

По материалам Biometrics Research Group. Автор Jim Nash

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *