Ещё в прошлом году, программисты создали алгоритм способный изменять эмоции человека на фотографиях, а как обстоят дела с обратной аналитикой?
Возможно, лучшая новость из интервью, проведенных исследователем Microsoft Кейт Кроуфорд для её новой книги «Атлас искусственного интеллекта», заключается в том, что она сохранила свою работу после того, как поделилась своими мыслями на эту тему.
Кроуфорд входит в небольшую (и полностью женскую) группу отраслевых инсайдеров из крупных компаний, рассказывающих о заблуждениях и недостатках разработки ИИ и маркетинга.
Двум руководителям Google, которым было поручено их работодателями следить за тем, чтобы этика была заложена в разработку ИИ, потеряли свою работу после того, как они сделали именно то, что им было поручено.
Кроуфорд является главным научным сотрудником Microsoft Research, а также профессором-исследователем в области коммуникаций, науки и технологий в Университете Южной Калифорнии. «Атлас искусственного интеллекта» исследует затраты и выгоды от жизни, дополненной алгоритмами.
Термин «искусственный интеллект» слишком абстрактен для большинства людей (включая многих руководителей компаний), и это проблема, учитывая, как он всё больше влияет на жизнь, от предложения контента до биометрического наблюдения.
Microsoft и другие компании позиционируют его как экологически чистый, непредвзятый, демократичный и в значительной степени готовый к решению вопросов жизни и смерти, но, по словам Кроуфорд, индустрия ошибается.
В интервью The Guardian Кроуфорд сказала, что при написании своей книги она пошла на крайние меры — например, посетила шахту, производящую технологичное сырье, чтобы понять для себя затраты, последствия и интеллектуальные усилия, которые приводят к алгоритмическому принятию решений.
Её позиция заключается в том, что большинство людей думают об ИИ как об электронике, пережевывающей биты данных, но в конечный продукт вкладывается много недооцененного и невидимого человеческого труда.
По словам Кроуфорд, ИИ – это попытка человека сделать цифровые системы автономными.
И, как всё, созданное людьми, оно предвзято.
Отраслевой маркетинг пытается убедить потенциальных покупателей и регулирующие органы в том, что любая предвзятость в кодировании незначительна и легко устраняется путем использования всё больших баз данных для обучения алгоритмов.
Сообщение может заключаться в том, что случайная и злонамеренная предвзятость была проблемой до, может быть, 2020 года. Новые, идеально сбалансированные базы данных разбавят некачественный материал. Конец проблемы.
Кроуфорд, похоже, склоняется к какой-то массовой фильтрации общедоступных и частных баз данных, жестким стандартам, минимизирующим предвзятость, и признанию всеми участниками того факта, что предвзятость невозможно устранить.
Она гораздо менее оптимистична в отношении распознавания эмоций или эмоциональных вычислений — области, в которой играет Microsoft. У Кроуфорд есть компания с её опасениями.
В интервью Guardian она говорит, что утверждения о том, что мысли, намерения, побуждения и планы можно прочитать по выражению лица, глубоко ошибочны. Как бы ненадежно это ни было, прогнозируется, что рынок достигнет 37,1 миллиарда долларов.
Статья Vice обнаружила, что четыре компании – разработчика программного обеспечения: Cerence, Eyeris, Affectiva и Xperi — продают или готовятся продавать алгоритмы обнаружения эмоций автопроизводителям.
Однако это относительно мелкая сошка. Microsoft занимается исследованиями и разработкой распознавания эмоций, по крайней мере, с 2015 года, и это функция Face API, которая является частью Azure Cognitive Services.
Таким образом, зловеще то, что разработчики искусственного интеллекта, особенно распознавания эмоций, продолжают высказывать опасения по поводу предвзятости, производительности и, возможно, даже законности. Но Microsoft, по крайней мере, позволяет сотруднику бить тревогу.
Это ведь прогресс, верно?
По материалам Biometrics Research Group. Автор Jim Nash