По мнению международной группы исследователей, можно создавать синтетические образцы для алгоритмов распознавания лиц, которые одновременно поддерживают производительность кода и предотвращают утечку конфиденциальной информации.
Учёные создали двухэтапный фреймворк, который они назвали FaceMAE, потому что в нём используются маскированные автокодеры, или MAEs. Он разделён на два этапа – этап биометрического обучения и этап развертывания. Их работа была опубликована, но не рецензировалась.
Главное здесь заключается в том, что, генерируя лица для использования в качестве обучающих данных, FaceMAE одновременно учитывает конфиденциальность лиц и эффективность распознавания, сообщают исследователи из Национального университета Сингапура; Эдинбургского университета, Шотландия; Университета Цинхуа, Китай; и InsightFace, библиотеки двух- и трехмерного анализа лиц с открытым исходным кодом..
Результаты обнадёживают. FaceMAE сокращает утечку конфиденциальной информации примерно на 20%. Это снизило частоту ошибок на 50% по сравнению со следующим по производительности методом, когда он обучался на восстановленных изображениях с трех четвертей замаскированных лиц из набора данных Casia-WebFace.
Синтетические биометрические данные лица, сгенерированные для обучения алгоритмов, уже привлекают миллионы инвестиций, поэтому метод, обеспечивающий аналогичную защиту конфиденциальности с большей точностью, был бы востребован.
Риск утечки FaceMAE был измерен на основе поиска лиц между восстановленными и исходными наборами данных. Эксперименты команды показали, что идентичность реконструированных изображений трудно восстановить.
Техническое резюме статьи можно найти на новостном сайте машинного обучения Marktechpost.
По материалам Biometrics Research Group. Автор Jim Nash