Учёные раскрыли секрет дипфейков и других поддельных видео

Все поддельные видео, оказывается, обладают характерной особенностью, которая свидетельствует о том, что они поддельные

Это настоящий Байден или поддельный? Сегодня на экранах ТВ могут появляться оба. Фото: REUTERS

Индустрия подделок достигла небывалых высот. Пример тому рекламные ролики, в которых «снимаются» Брюс Уиллис и Азамат Мусагалиев. Не исключено, что Азамат настоящий, но Брюс Уиллис точно поддельный. Хотя и выглядит, как живой.

«Чудеса» подобного рода стали возможными благодаря искусственному интеллекту и технологии deep fake. Поддельные персонажи генерирует GAN – нейронная самообучающаяся сеть. Она же генеративно-состязательная (Generative adversarial network). Сеть изучает реальные изображения людей и создает свои – другие, что называется, по образу и подобию. Получившиеся творения уходят в родственную сеть, которая определяет, насколько они реалистичны. И если находит изъяны, то возвращает на доработку. Процесс продолжается до тех пор, пока сети не «договорятся» и не решат, что фейк удался.

Брюс Уиллис в рекламных роликах точно не настоящий.

От deep fake-роликов, изготовленных для рекламы товаров и услуг, никакого вреда, конечно, нет. Нравится – смотрите. Но в последнее время GAN-продукцию стали использовать злоумышленники для производства фейковых «новостных сюжетов». Их демонстрируют в соцсетях, на сайтах СМИ, да и по некоторым официальным телеканалам, иллюстрируя несуществующие ужасы спецоперации на Украине. Дело легко может дойти до того, что по телевизору начнут «выступать» руководители тех или иных стран с откровенной deep fake-ахинеей. И поди разберись, в самом ли деле они свихнулись. Или их подставил искусственный интеллект.

Обман уже так разросся, что 4 марта 2022 года Госдума приняла закон, вводящий уголовное наказание и крупные штрафы за фейки, которые дискредитируют российскую армию и призывают к санкциям против России.

Специалисты, конечно, докопаются, где правда, а где наглая ложь. А обычные люди? Смогут ли они понять, что их дурят?

– Смогут. Не все, но более-менее продвинутые пользователи разберутся, – ещё в сентябре прошлого года обнадёжили китайские компьютерщики, работающие в Нью-Йоркском университете (State University of New York). Под руководством Хуи Гуо (Hui Guo) они проанализировали тысячу deep fake-роликов. И во всех нашли характерный изъян: поддельных людей выдавали глаза. Конкретно – зрачки. У настоящих людей они круглые, у поддельных – нет. Поддельные зрачки неправильной формы. Почему так получается, никто толком не знает, но факт, что называется, налицо. Гуо уверяет, что этот изъян технологии GAN становится хорошо заметен при увеличении изображения.

У поддельных людей глаза с некруглыми зрачками.

Кстати, два года назад отличились другие китайцы – из Университета Баффало (Computer Science and Engineering University at Buffalo). Под руководством Сивея Лю (Siwei Lyu) они первыми обнаружили, что GAN-сгенерированные изображения несовершенны. И что изъян кроется опять же в глазах.

Компьютерщики группы Лю разглядели, что настоящие глаза отличаются от поддельных отражениями, которые в них появляются. В настоящих глазах они одинаковые, в поддельных – разные. К примеру, отражение в левом глазу не такое, как в правом.

Фейк выдают еще и отражения в глазах – они разные.

Итого: фейки можно распознать либо по зрачкам неправильной формы, либо увидев разные отражения в глазах. Пока так. Хотя со временем, искусственный интеллект поумнеет и найдёт способ исправить подделки. Но люди придумают, как все-таки подловить такое творение.

По материалам «Комсомольская правда». Автор Владимир Лаговский 

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *