Хороший крупный план может обнаружить самые умные deepfake

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги

В рамках проекта Массачусетского технологического института выявлена возможность обнаружения сложных дипфейков.

Исследователи Массачусетского технологического института обнаружили, что даже самые лучшие системы дипфейка оставляют после себя явные артефакты. Это открытие будет одобрено всеми, кого беспокоит мир, в котором нельзя доверять ничему, кроме общения лицом к лицу.

Это было реализовано в лаборатории компьютерных наук и искусственного интеллекта, где разрабатывается множество достижений в области биометрии, в том числе в области распознавания лиц.

Deep networks могут обнаруживать тонкие подсказки, а затем применять программное обеспечение и методы, которые выделяют их.

В статье, опубликованной на Arxiv, команда использовала «патч-классификатор с ограниченными восприимчивыми полями, чтобы визуализировать, какие области поддельных изображений легче обнаружить». Выявленные артефакты были увеличены.

Сообщается, что этот процесс работает даже с изображениями от генераторов, которые настроены против ложного классификатора изображений.

Исследователи Массачусетского технологического института обнаружили, что вместо того, чтобы обучать сети давать общий поддельный/не поддельный прогноз, что модифицированные генераторы не могут точно моделировать определенные области поддельного изображения настолько хорошо, что поддельное изображение не может быть распознано.

«Локальные ошибки могут быть обнаружены с помощью классификатора, фокусирующегося на текстурах в небольших участках», – говорится в документе.

Интересная работа, но действительно заметным событием будет то, как быстро этому шагу противостоят создатели deepfake.

По материалам Biometrics Research Group. Автор Jim Nash

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *