
Согласно новому исследованию, гендерная предвзятость, не редкость при распознавании лиц, и не обязательно является фактором в обнаружении атак биометрического представления лица.
Группа ученых из американских университетов изучала возможность предвзятости, заметив, что она привлекла незначительное внимание, несмотря на продолжающуюся глобальную озабоченность по поводу надежности систем распознавания лиц в целом.
Работа, проделанная в университетах штата Северная Каролина A&T и штата Уинстон-Салем, «выявила незначительную гендерную предвзятость» в методах обнаружения презентационных атак, основанных на сверточных нейронных сетях или CNN.
Авторы статьи признали, что могут присутствовать и другие формы предвзятости, но оставили доказательство этого на будущее.
Согласно докладу команды, не достаточное представление женских лиц в обучающих наборах данных не обязательно была источником гендерной предвзятости в модели. Кроме того, использованный в экспериментах метод вариационного автокодировщика с коррекцией смещения (DB-VAE) смягчил предвзятость при обнаружении поддельных лиц.
Область исследований открыта для расширения будущих экспериментов за пределы двух моделей CNN, используемых в этой работе – Resnet50 с трансферным обучением и VGG16. Исследователи выразили заинтересованность во включении большего количества CNN, возможно, включая Le-NET-5, AlexNet-5 и Inception-v3.
Amazon, Microsoft и Google, три крупнейшие компании, занимающиеся разработкой биометрии лиц, похоже, не могут отказаться от проблемы предвзятости, поэтому так важны дальнейшие исследования.
По материалам Biometrics Research Group. Автор Jim Nash