Даже продвинутые нейросети не умеют создавать реалистичные зрачки, хотя обычно эти изъяны практически незаметны.
Команда ученых из США обнаружила особенность, которая может гарантированно отличить дипфейки от фотографий реальных людей. Исследование опубликовано на сайте arXiv.org.
В последние годы в Интернете стали очень распространены дипфейки (deepfake) — фотографии и видео, “смонтированные” машинными алгоритмами. К примеру, известный актер может заниматься вещами, которые никогда не делал в жизни. Более того, искусственный интеллект научился создавать изображения людей, никогда не существовавших.
На первый взгляд может показаться, будто все это просто веселая забава, однако злоумышленники используют сгенерированные компьютером изображения, чтобы выдавать себя за других или скрывать свою личность в социальных сетях. Технология настолько развилась, что практически невозможно определить подделку по внешнему виду. К счастью, исследователи из Университета в Олбани, Университета в Баффало и компании Keya Medical нашли критический изъян.
Искусственные лица создаются с помощью генеративно-состязательных нейросетей (GAN), которые обучаются на настоящих фотографиях, потом создают свои изображения на их основе. Готовые лица отправляют в другую нейросеть которая проверяет подлинность и отправляет фальшивые на доработку. Процедура повторяется несколько раз, пока дипфейки не становятся маскимально реалистичными.
Авторы исследования выявили, что большинство GAN рисуют не круглые зрачки из-за отсутствия физиологических ограничений. В итоге даже самые качественные дипфейки имеют глаза неправильной формы. При желании, любой пользователь может приблизить изображение и обнаружить отклонения. Кроме того, ученые предлагают написать программу, которая будет автоматически выявлять неровности в форме зрачков.
Для сравнения: реальные глаза — слева, и дипфейки — справаФото: Скриншот
“Неправильная форма зрачка — хороший знак для человека, чтобы визуально обнажить лицо, созданное GAN, даже если нет граничных меток вокруг зрачков, мы можем легко увидеть, что формы зрачков, генерируемых GAN, очень неправильны, а формы обоих зрачков сильно различаются на одном и том же изображении лица, созданном GAN”, — отмечают ученые.
Ранее писали, что компания Hour One платит людям за создание deepfake-клонов. Участников проекта сканируют, а затем используют их цифровые копии для создания различных роликов.
Сообщали также, что японцы сканируют знаменитостей для создания цифровых двойников. Благодаря новым виртуальным платформам актеры и модели смогут сохранить работу во время любой пандемии.
По материалам Фокус.