В ходе разработки, которая должна удивить немногих в сообществе распознавания лиц, появились новые тревожные новости о том, как быстро развиваются глубокие подделки.
Алгоритмы, способные взаимодействовать с людьми и создавать целые повествования, вскоре могут стать частью «набора инструментов убеждения» пропагандистов, считает главный научный сотрудник Microsoft Эрик Хорвиц (Eric Horvitz).
В своей новой научной работе он пишет, что в ближайшем будущем тактика глубокой фальсификации и технологические достижения могут ослабить и без того шаткое представление общества о реальности.
Хорвиц предлагает список шагов, которые человечество должно предпринять, чтобы ответить на брошенный ему вызов. Хорошо это или плохо, но некоторые шаги зависят не от технологии, а от того, что люди становятся более аналитичными, когда дело доходит до информации, которую они потребляют.
Он видит две непосредственные угрозы — интерактивные глубокие подделки и композиционные глубокие подделки. Первые будут взаимодействовать с людьми таким образом, что обычному человеку будет практически невозможно понять, что он разговаривает с кодом.
Вторым будут глубокие фейки с предысториями. Создание сцен, в которых живёт deepfake. Это может быть сцена несчастного случая или подборка роликов в социальных сетях, на которых человек появлялся на вечеринках по случаю дня рождения на протяжении многих лет.
Недавние исследования вызывают тревогу. Хорвиц ссылается на исследование 2020 года в области нейронного голосового кукольного театра, которое создает «неотразимое» зрелище, когда движения лица в реальном времени соответствуют словам, произносимым за кадром актёром.
Сопоставление аудио с выражением лица и создание реалистичной визуализации, пишет он, было сделано за 5 миллисекунд с помощью процессора Nvidia 1080Ti. За два года до этого исследователи продемонстрировали глубокие нейронные модели, генерирующие реалистичную речь из текста.
А рабочие аватары, разработанные для имитации своеобразного стиля общения человека, приводят к появлению аватаров, которые реалистично двигаются лицом и так далее.
Гибридные аватары также находятся в стадии разработки. Они передают управление разговором deepfake аватару, но имеют реальную человеческую модель, соответствующую подделке, которую можно хитро подменить в случае необходимости.
Эти и другие разработки закладывают основу для реалистично интерактивных глубоких подделок, пишет Хорвиц.
Композиционные глубокие подделки – это тоже «перспективное и реальное направление», пишет он. Они создают повествования, а не просто изображение или аватар, созданный для выполнения задачи.
Этот кошмарный сценарий включает в себя возможность полностью сфабриковать инциденты, которые будут, так сказать, соединены между реальными событиями. Цель состоит в том, чтобы сфабрикованное событие органично сочеталось с реальными событиями, вызывая доверие к фальшивке.
Частично ответ на этот вопрос заключается в создании среды, способствующей хорошей местной и международной журналистике. Выявление доверенных людей с достоверной информацией всегда было решающим шагом в борьбе с дезинформацией. Наряду с этим Хорвиц предлагает проекты по повышению медиаграмотности.
Происхождение контента, протоколы проверки подлинности, водяные знаки и другие цифровые «отпечатки пальцев» также могут облегчить задачу по предотвращению мошенничества в отношении личностей и событий.
Конечно, упоминаются обнаружение с помощью новых алгоритмов, а также саморегулирование и государственное регулирование. Но Хорвиц, похоже, хочет сказать, что всё это не сработает, если не будет сопровождаться личной ответственностью.
По материалам Biometrics Research Group. Автор Jim Nash