В Индии проблема с глубокой подделкой. Cоучредитель IT-гиганта Infosys Нараяна Мурти предупредил о распространяющихся в Интернете видеороликах с глубокой подделкой, в которых он рекомендует приложения для автоматической торговли, и предостерег людей не попадаться на удочку мошенников.
Мурти – не единственное известное лицо в стране, чье изображение использовалось в синтетических СМИ. За последние месяцы фейковые видеоролики известных индийцев стали вирусными в социальных сетях, в том числе промышленник Ратан Тата, который на прошлой неделе указал, что видео, где он даёт советы по инвестициям в Instagram, является поддельным.
Индия с её 800 миллионами интернет-пользователей становится центром эпидемии глубокой подделки, и некоторые комментаторы сейчас задаются вопросом, может ли эта технология повлиять на всеобщие выборы, запланированные на апрель-май 2024 года. Наряду с Бангладеш и Пакистаном, страна входит в десятку стран Азиатско-Тихоокеанского региона, наиболее пострадавших от мошенничества с личными данными с использованием технологии глубокой подделки, согласно отчёту о мошенничестве с личными данными за 2023 год от компании Sumsub, занимающейся цифровой проверкой личности.
Правительство Индии сейчас наносит ответный удар
Регулирующие органы борются с проблемой deepfake на нескольких фронтах, разрабатывая правила для наказания отдельных лиц за загрузку deepfake контента, а также платформ социальных сетей, на которых он размещён.
В тот же день, когда Мурти из Infosys предупредил онлайн-пользователей о своём deepfake видео, Раджив Чандрасекар, государственный министр по развитию навыков и предпринимательства, электроники и информационных технологий, объявил, что правительство выпустит рекомендации по deepfake для всех технологических компаний. В настоящее время не существует отдельного регулирования в отношении глубоких подделок, но у правительства будут ещё более жесткие правила, если компании не будут следовать рекомендациям, сказал министр, сообщает Mint.
«Если они по-прежнему не придерживаются этого, вернитесь назад и внесите поправки в правила и сделайте их ещё более жёсткими в случае какой-либо двусмысленности», – сказал он во время саммита Глобального партнерства по искусственному интеллекту (GPAI) в Нью-Дели.
Этот шаг был предпринят после того, как на прошлой неделе Чандрасекар встретился с представителями социальных сетей, чтобы обсудить прогресс в борьбе с дезинформацией и дипфейками. Во время встречи министр отметил, что некоторые платформы всё ещё не соблюдают правила, и повторил, что индийское правительство придерживается подхода «нулевой терпимости» к дезинформации и глубоким подделкам.
В настоящее время платформы обязаны устранять ущерб в соответствии с ИТ-правилами и действовать в соответствии с Уголовно-процессуальным кодексом (CrPC), который, по словам ит-директора Axis, допускает судебное преследование за глубокие подделки.
Некоторые компании уже прислушиваются к призыву к саморегулированию. Google сотрудничает с правительством Индии в борьбе с поддельным контентом, созданным искусственным интеллектом. Технический гигант также инвестировал 1 миллион долларов в виде грантов Индийскому технологическому институту в Мадрасе для создания центра ответственного искусственного интеллекта, сообщает Times of India.
Но этих усилий может оказаться недостаточно
По словам Абхи Шаха и Нитики Нагар из юридической фирмы Naik Naik & Company, эффективная борьба с глубокими подделками требует создания конкретных законов и штрафных санкций.
«Крайне важно разработать руководящие принципы для онлайн-платформ и сайтов социальных сетей по обнаружению и оперативному удалению поддельного контента, что требует сотрудничества с технологическими компаниями для обеспечения соблюдения этих правил», – пишет дуэт в статье отраслевого издания Mondaq, посвящённого искусственному интеллекту.
Индия сейчас готовится сформировать свой ответ на угрозы ИИ. Премьер-министр Индии Нарендра Моди призвал к созданию глобальной структуры, регулирующей разработку инструментов искусственного интеллекта, и предупредил, что в настоящее время deepfake используются для распространения ложной информации даже организациями, сообщает Wion News.
«Deepfake – это вызов для всего мира… Инструменты искусственного интеллекта, попадающие в руки террористов, также представляют большую угрозу. Если террористические организации получат оружие с искусственным интеллектом, это окажет огромное влияние на глобальную безопасность… Нам нужно спланировать, как справиться с этим»
Сказал Моди во время саммита GPAI
«Точно так же, как у нас есть международные договоры и протоколы, нам необходимо подготовить основу для ИИ на глобальном уровне», – добавил он.
Министр Чандрасекар сказал, что подход Индии к регулированию ИИ отличается от подходов мировых лидеров, таких как США и ЕС. К тому времени, когда начнётся Корейский саммит по безопасности, Индия могла бы получить больше понимания по гармонизации правил, добавил он.
По материалам Biometrics Research Group. Автор Masha Borak