Китай и ЕС регулируют ИИ, а США спекулируют

В то время как Европейский союз ведёт долгую игру по разработке правил для искусственного интеллекта, Китай удивил многих быстрыми, но глубокими правилами. В отчёте сравнивается ситуация в обеих юрисдикциях. С другой стороны, правительство США рассматривает способы улучшения своей исследовательской инфраструктуры в области искусственного интеллекта.

Европейский союз имеет давнюю репутацию регулирующего органа во многих сферах жизни. Его GDPR стал своего рода глобальным хитом. Своим предстоящим Законом об ИИ он пытается защитить права человека и общество в целом. Китай также ввел регулирование искусственного интеллекта, вызвав что-то вроде спора между регулирующими органами относительно того, кто его контролирует.

В отчёте для CNBC сравниваются подходы к вопросу о том, может ли один из них стать доминирующей версией регулирования, хотя проект ЕС гораздо шире (и медленнее), чем проект Китая.

В отчёте рассматривается вопрос о том, отвечает ли требование Китая о том, что фирмы должны информировать пользователей, если используется алгоритм для передачи им определенной информации и предоставления им возможности отказаться, интересам общественности или правительства. Или, возможно, это просто крупномасштабный эксперимент, на котором может поучиться весь остальной мир.

По мнению одного из комментаторов, в некотором смысле технические цели ЕС и Китая схожи, и Западу следует обратить внимание на действия Китая. Заметным отличием является готовность Китая опробовать новые подходы непосредственно на людях.

Некоторые комментаторы предвидят расхождение в подходах к разработке ИИ, и особенно в его полицейском управлении. Фирмам, возможно, придётся адаптировать свои продукты в соответствии с местным регулированием, в чём они уже хороши, сообщает CNBC один из комментаторов.

Первые шаги федеральных исследований в области ИИ для США

Закон США о Национальной инициативе в области искусственного интеллекта 2020 года стал законом в 2021 году и объединяет исследования в области искусственного интеллекта в рамках федерального правительства для ускорения процессов, направленных на повышение эффективности экономики и безопасности. В рамках Национальной инициативы по искусственному интеллекту в июне 2021 года учреждена группа для создания дорожной карты совместной исследовательской инфраструктуры – целевой группы National Artificial Intelligence Research Resource (NAIRR).

Он опубликовал свою первую оценку ситуации в ходе публичных встреч и консультаций с экспертами. «Создание Национального исследовательского ресурса по искусственному интеллекту (NAIRR): предварительные выводы и рекомендации» создаёт ситуацию, когда доступ к ресурсам для разработки искусственного интеллекта слишком ограничен для крупных фирм и богатых университетов.

«Стратегической целью создания NAIRR является укрепление и демократизация инновационной экосистемы искусственного интеллекта США таким образом, чтобы защитить частную жизнь, гражданские права и гражданские свободы», – говорится в отчёте. В нём также содержится призыв к тому, чтобы повседневная деятельность NAIRR была независимой от правительства, чтобы она устанавливала стандарты для ответственных исследований ИИ, была доступной, а элементы ресурсов, включая тестовые стенды, «были доступны удобным для пользователя способом».

Испытательные стенды – это места, где NAIRR пересекается с биометрией, в качестве примеров проведения исследований в конкретных областях. В качестве примера тестирования биометрических данных приводится NIST и его тест поставщика распознавания лиц.

Для защиты NAIRR призывает использовать архитектуру нулевого доверия с сильным контролем идентификации и доступа, хотя это соответствует движению по внедрению технологии всеми федеральными агентствами.

Однако некоторые считают, что США уже отстали от Китая, а другие группы, такие как AI, теперь также призывают к демократизации исследований в области искусственного интеллекта.

По материалам Biometrics Research Group. Автор Frank Hersey

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *