Def Con противопоставляет хакеров системам распознавания лиц

Biometrics Update

На хакерской конвенции Def Con в Лас-Вегасе было объявлено о новом конкурсе, в котором команды будут соревноваться между собой, пытаясь обмануть системы распознавания лиц.

Мероприятие, организованное компанией Adversa AI , зспециализирующейся на безопасности с помощью искусственного интеллекта (ИИ), является частью конкурса по уклонению от безопасности с помощью машинного обучения, который с 2019 года регулярно проводится на Def Con.

Конкурс открылся 12 августа и продлится до 23 сентября. Участникам был предоставлен онлайн-доступ к десяти наборам фотографий знаменитостей и модели распознавания лиц, обученной их распознавать.

Затем им было поручено тонко изменить изображения, чтобы обмануть систему, чтобы она идентифицировала каждую знаменитость как каждую из других знаменитостей. Все файлы должны быть представлены организаторам конкурса, которые оценят эффективность обмана на основе оценки вероятности от 0 до 1.

Победитель конкурса должен будет опубликовать свои методы с мыслью, что они могут помочь отрасли закрыть потенциальные пробелы.

Золтан Балаш (Zoltan Balazs), руководитель лаборатории исследования уязвимостей компании-разработчика программного обеспечения Cujo AI , одного из организаторов конкурса, сказал IEEE Spectrum, что надеется, что это мероприятие поможет распространить информацию об уязвимостях систем биометрии лица.

Уже сообщалось о некоторых реальных примерах того, как мошенники подделывают системы распознавания лиц для получения финансовой выгоды. Например, алгоритмы биометрии лица компании ID.me, занимающейся проверкой личности, были подделаны для проверки поддельных водительских прав в рамках схемы мошенничества с безработицей в США на сумму 2,5 миллиона долларов.

«Это очень легко и быстро сделать для злоумышленников с достаточной мотивацией», — сказал IEEE Spectrum технический директор Adversa Юджин Нилоу (Eugene Neelou). «Наши исследования показывают, что некоторые из лучших производителей систем распознавания лиц демонстрируют практически полное отсутствие защиты от неблагоприятных модификаций входных данных».

Например, недавние данные исследований израильских ученых показали, что тканевые маски для лица, закрывающие нос и рот и напечатанные со враждебными рисунками, уклоняются от систем распознавания лиц более чем в 96 процентах случаев.

В то же время компании и правительства активно работают над улучшением и защитой от спуфинга возможностей систем распознавания лиц. Например, камера, недавно разработанная Sony, предназначена для защиты от манипулирования изображениями и методов подделки, таких как изменение лица.

По материалам Biometrics Research Group. Автор Alessandro Mascellino

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *