Deepfake а) можно обнаружить б) круто в) не надо волноваться

Согласно новостям из сообщества искусственного интеллекта, программисты серьёзно относятся к перспективе глубокой подделки видео как к неминуемой угрозе.

В то время как некоторые в биометрических и связанных с ними кругах вздыхают с облегчением, некоторые со стороны не видят той же опасности, которая беспокоила авторов алгоритмов. Некоторые вообще недоумевают, в чём же тут дело.

В статье на сайте Unite.AI говорится, что синтез видео стал «стимулирующим фактором» для «спринта развития» в этом году. Unite.AI – это издательство информационно-пропагандистской журналистики, пропагандирующее этический ИИ и сообщающее о злоупотреблениях ИИ, в первую очередь со стороны правительства.

Длинная статья стоит того, чтобы потратить на неё время, познакомив читателей с важными разработками в области выявления глубоких подделок и борьбы с ними, которые в значительной степени зависят от поддельных биометрических данных усреднённых людей или поддельных биометрических данных реальных людей.

Компания Meta опубликовала программное обеспечение для преобразования текста в видео, например, Make-A-Video. Google Research продвигает свою архитектуру Imagen Video T2V. И, согласно статье, Stability AI пообещал видео для своего алгоритма Stable Diffusion до 2023 года.

Суть статьи, однако, заключается в том, что создаются инструменты для защиты Интернета от подделок. Среди них генеративные состязательные сети и модели скрытой фальсификации. В статье говорится, что, позиционируемые как «дополнения к внешним анимационным работам», GAN и diffusers «начинают набирать реальную популярность».

Сторонники архитектуры De-fake, на документ есть ссылка в статье, предлагают не что иное, как «добиться «универсального обнаружения» изображений, созданных с помощью моделей преобразования текста в изображение» – и определить, какой алгоритм использовался для создания изображения.

Salesforce сотрудничала в этой работе.

В другой цитируемой статье рекламируется Blade Runner, программное обеспечение «plug and play» для всех, кто не может позволить себе создать свой собственный детектор подделок.

Вторая статья была опубликована новостным издателем Business Insider. Это больше относится к категории «вау». Автор, романист и подкастер Эван Рэтлифф, предлагает очень пространный отчёт о своем удивлении по поводу повсеместного распространения фейковых снимков головы.

Рэтлифф видит фотографию 20-летней блондинки с белоснежными и прямыми верхними зубами (нижние зубы отсутствуют в улыбке). Далее следует рассказ о том, как он стал одержим фотографией и чат-ботом и в конечном итоге понял, что может использовать свои собственные способности распознавания человеческих лиц, чтобы обнаружить некоторые подделки.

Но самая забавная перспектива исходит из новостной статьи в журнале Register. В материале, который через пять лет будет выглядеть пророческим или наивным, The Register пытается выпустить немного воздуха из воздушного шара deepfake.

Расслабьтесь – это сообщение Джона Шиера, исследователя Sophos, цитируемое изданием. Sophos – это фирма, занимающаяся онлайн-безопасностью.

Гораздо проще просто успешно подбирать пароли, чем создавать алгоритмы, архитектуры и платформы при попытке обычного обмана бизнеса. Однако мошенничество с глубокими подделками используется, как газонокосилка в середине лета.

По материалам Biometrics Research Group. Автор Jim Nash

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *