Предложение для ответственных глубоких подделок

Небольшая академическая и корпоративная группа исследователей заявляет, что они создали способ сохранить биометрическую конфиденциальность людей, чьи лица публикуются в социальных сетях.

И хотя это инновация заслуживает внимания, так же как и пара фраз, которые команда разработала для анонимизации лиц: «ответственное использование deepfakes by design» и «Моё лицо, мой выбор».

Для большинства людей глубокие подделки существуют потому, что людям нравится, когда их дурачат. Для остальных они существуют для того, чтобы господствовать в будущем, когда объективных доказательств или истины больше не существует.

Два учёных из Государственного университета Нью-Йорка, Бингемтон, и ещё один из Intel Labs заявляют в статье, не прошедшей рецензирование, что они признают опасность для личности и частной жизни, исходящую от программ по сбору изображений лиц, как Clearview AI, которые собирают миллиарды лиц для своих собственных целей и без разрешения.

Ответ, по их мнению, заключается в качественном отличии глубоких подделок. То есть использование алгоритмов глубокой подделки для изменения лиц настолько, что лица не могут быть распознаны программным обеспечением. В результате изображение лица на групповой фотографии достаточно точно соответствует оригиналу (и не содержит странностей ИИ), чтобы любой человек, знакомый с человеком, быстро принял его за репрезентативное.

Исследователи также предложили метрики для этого, при которых deepfake (хотя, опять же, всё ещё узнаваемый многими людьми) генерируется случайным образом с гарантированным отличием.

Представьте это как тонкую маску, которая может быть добавлена по умолчанию программным обеспечением и устранена действиями, которые люди предпринимают для этого.

Маски могут быть удалены путем маркировки людей. Или правила маскировки могут применяться владельцами лиц. Также могут быть введены более тонкие правила, раскрывающие все лица истинным друзьям, семейные лица – родственникам и тому подобное.

По словам команды, эта техника демонстрирует ответственный дизайн глубокой подделки. На самом деле, ему удалось сбить с толку алгоритмы распознавания лиц.

Исследователи отметили, что существуют ограничения на то, что программное обеспечение может делать при создании глубоких подделок. Некоторые различия в позе между целевыми и исходными изображениями по-прежнему вызывают проблемы, и алгоритмы распознавания лиц по-прежнему могут просто не видеть лица. И ещё есть проблемы с вычислениями и хранением, связанные с выполнением этой задачи в больших группах друзей.

По материалам Biometrics Research Group. Автор Jim Nash

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *