Предвзятость в дипфейках и в алгоритмах распознавания лиц

Опасная предвзятость была выявлена в наборах данных и моделях обнаружения дипфейков исследователями из Университета Южной Калифорнии. В обычно используемом наборе данных «подавляющее большинство» преобладают белые люди, особенно белые женщины.

Результатом такого перекоса является то, что детекторы дипфейков менее способны обнаруживать поддельные изображения и видео с цветными людьми.

Это неприятно. Многие в отрасли считают, что алгоритмы дипфейка становятся настолько реалистичными, настолько быстро, что автоматические детекторы скоро станут единственной надеждой их обнаружить.

В статье исследователей Лок Тринь (Loc Trinh) и Ян Лю (Yan Liu) экспериментировали с тремя хорошо известными детекторами дипфейков и обнаружили разницу в уровне ошибок до 10,7% в зависимости от пола и расы.

Пара обнаружила, что популярный FaceForensics ++, в частности, плохо сбалансирован. Важно отметить, что внимание к предвзятости в наборах данных AI возникло совсем недавно, через некоторое время появится больше примеров недопредставленности.

Исследователи пишут, что снижение количества ложных срабатываний при попытке обнаружить фальшивое видео является «сложной задачей».

Используя наборы биометрических данных FaceForensics ++ и Blended Image, они обучили модели MesoInception4, Xception и Face X-ray, каждая из которых «доказала свою эффективность» в обнаружении видео. Они сказали, что эти три модели различны по размеру, архитектуре и точности.

Все три детектора одинаково работали на мужских и женских лицах, разница в частоте ошибок составила от 0,1 до 0,3 процента.

Детекторы, обученные на смешанном изображении, были наименее успешными в тех случаях, когда были представлены более темные африканские изображения – разница в уровне ошибок составила от 3,5 до 6,7%.

Однако смешанное изображение лица были наиболее успешными при работе с белыми мужскими лицами – с частотой ошибок 9,8% для всех белых лиц и 9,5% для белых мужчин.

В статье в VentureBeat проводится сравнение между газетой USC и другой, опубликованной в прошлом году Университетом Колорадо в Боулдере. Согласно публикации, цисгендерные мужчины правильно идентифицировались по крайней мере в 95% случаев с помощью алгоритмов, написанных Microsoft, Clarifai, Amazon и другими.

Но трансгендерных мужчин ошибочно принимали за женщин в 38% случаев.

Некоторые исследователи работают над биометрическим определением живости лиц. Одно из решений распознает быстрое и тонкое изменение цвета на лице живого человека, когда кровь пульсирует под кожей.

Facebook, по-прежнему неспособностью отделить опасную политическую пропаганду от информированных потоков о здравоохранении, предложил приз в размере 1 миллиона долларов в рамках конкурса Deepfake Detection Challenge, который завершился в июне прошлого года. Результаты испытания были далеко не окончательными.

По материалам Biometrics Research Group. Автор Jim Nash

Добавить комментарий

Ваш адрес email не будет опубликован.