Разрабатывается законы, как реагировать на ИИ подделки

Вопрос цифровой идентификации вот-вот станет намного сложнее и гораздо важнее, поскольку мир начинает считаться с распространением глубоких подделок. На международном уровне правительства бьют тревогу по поводу рисков, связанных с генеративным искусственным интеллектом (ИИ), который может комбинировать такие инструменты, как биометрия лица, синтез голоса и языковые модели, для создания реалистичных аватаров. Как сообщалось в Fast Company, New York Times и других изданиях, от геополитики до порнографии, потенциал дезинформации, дезорганизации и неправильного использования является серьёзной проблемой.

Многие из нас уже сталкивались с персонажем искусственного интеллекта в онлайн-рекламе, обучающих видеороликах или руководствах. Но использование быстроразвивающихся алгоритмов распространяется всё шире. В последние месяцы появились видеоролики, на которых якобы изображены люди с американским акцентом, поддерживающие переворот в Буркина-Фасо или прославляющие геополитическую смекалку Китая. Эти виртуальные люди не идеальны; их лица и голоса напоминают о сверхъестественной долине. Но это первая волна технологий, которые, как многие ожидают, изменят наше представление о цифровой идентификации, биометрии и самой реальности.

Могут ли правительства идти в ногу с искусственным интеллектом?

С внедрением чат-бота GPT от Open AI возможности для широкого использования уже стремительно расширяются: ведущие новостей Deepfake распространяют ложную информацию; политики deepfake делают ложные заявления; знаменитости deepfake в компрометирующих позициях – всё это привело к принятию нормативных актов, направленных на быстрое распространение технологии, которая повлияет на все сферы общества.

В Индии, по данным Economic Times, премьер-министр Нарендра Моди требует от компаний социальных сетей принять «разумные и практические меры» для удаления поддельных изображений со своих платформ.

«Мы были предупреждены о глубоких подделках в наших агентствах», – говорится в заявлении, опубликованном Министерством электроники и информационных технологий (MeitY). Руководителям по соблюдению требований в компаниях, включая Facebook, Instagram, WhatsApp, Twitter и YouTube, сообщили, что теперь у них есть 24 часа для рассмотрения жалоб, связанных с глубокими подделками, сделанными частными лицами. (На ответы на жалобы, поступающие из государственных учреждений или по решению суда, отводится 36 часов.)

MeitY также призвала компании внедрить свои собственные меры предосторожности против фальсифицированного контента или других инструментов генеративного обучения, которые могут нарушать пользовательские соглашения.

Законопроект о криминализации распространения подделок

В американском штате Миннесота, выступая перед комитетом по выборам Палаты представителей, представитель Демократической партии Зак Стивенсон выступил с речью, в которой наглядно продемонстрировал, насколько изощрёнными стали генеративный искусственный интеллект и deepfakes.

«С ростом изощрённости этих технологий становится легче создавать убедительные фальшивые новости или пропаганду, призванные манипулировать общественным мнением. Это имеет серьёзные последствия для неприкосновенности частной жизни, свободы слова и честности наших выборов»

Сказал он, согласно сообщению в Duluth News Tribune

По иронии судьбы, однако, Стивенсон показал, что его замечания на самом деле были сгенерированы чатом GPT.

Для любого, кто создаёт поддельную порнографию, могут быть юридические последствия, поскольку он представил законопроект, который сделает грубым проступком «распространение без согласия изменённых изображений человека обнажённым или участвующим в половом акте, когда человек на самом деле не был обнажён или не занимался сексом», а также уголовное преступление, если сознательно размещают порнографические фейки для домогательств.

Закон будет следовать аналогичным мерам в Калифорнии и Техасе, направленным на регулирование использования глубоких подделок.

По материалам Biometrics Research Group. Автор Joel R. McConvey

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *