Глубокие подделки представляют угрозу демократии Индии

Индия сталкивается с распространением глубоких подделок, которые могут распространять дезинформацию во время выборов. Что ещё более важно для индустрии биометрии, глубокие подделки могут создать серьёзную проблему для проверки пользователей, включая видео KYC, предупреждает новый отчёт специализированного на технологиях СМИ Medianama.

Выводы доклада были сделаны на основе дискуссии на тему «Глубокие подделки и демократия», проведённой MediaNama 17 января при поддержке Meta и Google. Дискуссия была сосредоточена на стратегиях по сдерживанию распространения глубоких подделок, и в ней приняли участие докладчики из технологического сектора Индии.

Когда дело доходит до проверки личности, глубокие подделки представляют угрозу для процессов видеосвязи «Знай своего клиента» (KYC), которые критически важны для Unified Payments Interface (UPI), системы мгновенных платежей, которую можно использовать с Aadhaar. Одним из предлагаемых решений является биометрия.

«Биометрия – хороший способ справиться со многими из этих вещей, но как только мы её внедрим, это не значит, что она будет работать вечно», – говорит Гаутам Курма, исследователь из Школы информации Калифорнийского университета в Беркли. «Найдутся люди, которые взломают его, и эти вещи должны постоянно развиваться. И есть исследования, которые показывают многообещающие результаты в области биометрии».

Обнаружение атак на живость или презентацию, которое используется для обнаружения глубоких подделок, явно не упоминается в отчёте.

Помимо Коормы, в обсуждении приняли участие бывший старший директор и координатор группы в Министерстве электроники и информационных технологий Ракеш Махешвари, генеральный директор и соучредитель policy advisory Deepstrat Сайкат Датта, соучредитель Tattle Civic Technologies Тарунима Прабхакар и другие.

Глубокие подделки могут представлять ещё большую угрозу всеобщим выборам в Индии, которые, как ожидается, состоятся в период с апреля по май 2024 года.

В отчёте отмечается, что одна из причин ограниченного успеха методов обнаружения глубоких подделок заключается в том, что возможности глубоких подделок, доступные злоумышленникам, улучшаются с каждым новым поколением. Злоумышленники способны удалять водяные знаки, предназначенные для предупреждения о глубокой подделке контента, в то время как алгоритмы обнаружения глубокой подделки звука становятся менее эффективными при применении к контенту, распространяемому в социальных сетях, несмотря на 90-процентную точность в лабораторных условиях, говорится в отчёте.

Простого решения проблемы глубоких подделок не существует. Однако компании и правительственные учреждения могут выполнить несколько рекомендаций, чтобы уменьшить их влияние, говорится в отчёте.

Компаниям следует сделать контент, созданный с помощью искусственного интеллекта, обнаруживаемым с помощью их сервисов, одновременно внедряя политику, регулирующую создание определённых видов контента. Компаниям, занимающимся искусственным интеллектом, следует изменить свои условия использования, чтобы гарантировать, что они не монетизируют дезинформацию и не распространяют дезинформацию с использованием глубоких подделок. Платформы социальных сетей также должны внести свой вклад, удалив или предотвратив их распространение посредством теневого запрета.

Избирательная комиссия Индии может ввести полный запрет на использование глубоких подделок политическими партиями во время предстоящих всеобщих выборов, а цифровую дактилоскопию можно сделать обязательной. Финансирование для выявления глубоких подделок должно быть увеличено при одновременном повышении медиаграмотности населения, делается вывод в докладе.

По материалам Biometrics Research Group. Автор Masha Borak

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *