Индия борется с deepfake увяданием и заставит платить за это

В Индии проблема с глубокой подделкой. Cоучредитель IT-гиганта Infosys Нараяна Мурти предупредил о распространяющихся в Интернете видеороликах с глубокой подделкой, в которых он рекомендует приложения для автоматической торговли, и предостерег людей не попадаться на удочку мошенников.

Мурти – не единственное известное лицо в стране, чье изображение использовалось в синтетических СМИ. За последние месяцы фейковые видеоролики известных индийцев стали вирусными в социальных сетях, в том числе промышленник Ратан Тата, который на прошлой неделе указал, что видео, где он даёт советы по инвестициям в Instagram, является поддельным.

Индия с её 800 миллионами интернет-пользователей становится центром эпидемии глубокой подделки, и некоторые комментаторы сейчас задаются вопросом, может ли эта технология повлиять на всеобщие выборы, запланированные на апрель-май 2024 года. Наряду с Бангладеш и Пакистаном, страна входит в десятку стран Азиатско-Тихоокеанского региона, наиболее пострадавших от мошенничества с личными данными с использованием технологии глубокой подделки, согласно отчёту о мошенничестве с личными данными за 2023 год от компании Sumsub, занимающейся цифровой проверкой личности.

Правительство Индии сейчас наносит ответный удар

Регулирующие органы борются с проблемой deepfake на нескольких фронтах, разрабатывая правила для наказания отдельных лиц за загрузку deepfake контента, а также платформ социальных сетей, на которых он размещён.

В тот же день, когда Мурти из Infosys предупредил онлайн-пользователей о своём deepfake видео, Раджив Чандрасекар, государственный министр по развитию навыков и предпринимательства, электроники и информационных технологий, объявил, что правительство выпустит рекомендации по deepfake для всех технологических компаний. В настоящее время не существует отдельного регулирования в отношении глубоких подделок, но у правительства будут ещё более жесткие правила, если компании не будут следовать рекомендациям, сказал министр, сообщает Mint.

«Если они по-прежнему не придерживаются этого, вернитесь назад и внесите поправки в правила и сделайте их ещё более жёсткими в случае какой-либо двусмысленности», – сказал он во время саммита Глобального партнерства по искусственному интеллекту (GPAI) в Нью-Дели.

Этот шаг был предпринят после того, как на прошлой неделе Чандрасекар встретился с представителями социальных сетей, чтобы обсудить прогресс в борьбе с дезинформацией и дипфейками. Во время встречи министр отметил, что некоторые платформы всё ещё не соблюдают правила, и повторил, что индийское правительство придерживается подхода «нулевой терпимости» к дезинформации и глубоким подделкам.

В настоящее время платформы обязаны устранять ущерб в соответствии с ИТ-правилами и действовать в соответствии с Уголовно-процессуальным кодексом (CrPC), который, по словам ит-директора Axis, допускает судебное преследование за глубокие подделки.

Некоторые компании уже прислушиваются к призыву к саморегулированию. Google сотрудничает с правительством Индии в борьбе с поддельным контентом, созданным искусственным интеллектом. Технический гигант также инвестировал 1 миллион долларов в виде грантов Индийскому технологическому институту в Мадрасе для создания центра ответственного искусственного интеллекта, сообщает Times of India.

Но этих усилий может оказаться недостаточно

По словам Абхи Шаха и Нитики Нагар из юридической фирмы Naik Naik & Company, эффективная борьба с глубокими подделками требует создания конкретных законов и штрафных санкций.

«Крайне важно разработать руководящие принципы для онлайн-платформ и сайтов социальных сетей по обнаружению и оперативному удалению поддельного контента, что требует сотрудничества с технологическими компаниями для обеспечения соблюдения этих правил», – пишет дуэт в статье отраслевого издания Mondaq, посвящённого искусственному интеллекту.

Индия сейчас готовится сформировать свой ответ на угрозы ИИ. Премьер-министр Индии Нарендра Моди призвал к созданию глобальной структуры, регулирующей разработку инструментов искусственного интеллекта, и предупредил, что в настоящее время deepfake используются для распространения ложной информации даже организациями, сообщает Wion News.

«Deepfake – это вызов для всего мира… Инструменты искусственного интеллекта, попадающие в руки террористов, также представляют большую угрозу. Если террористические организации получат оружие с искусственным интеллектом, это окажет огромное влияние на глобальную безопасность… Нам нужно спланировать, как справиться с этим»

Сказал Моди во время саммита GPAI

«Точно так же, как у нас есть международные договоры и протоколы, нам необходимо подготовить основу для ИИ на глобальном уровне», – добавил он.

Министр Чандрасекар сказал, что подход Индии к регулированию ИИ отличается от подходов мировых лидеров, таких как США и ЕС. К тому времени, когда начнётся Корейский саммит по безопасности, Индия могла бы получить больше понимания по гармонизации правил, добавил он.

По материалам Biometrics Research Group. Автор Masha Borak

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *