Японская компания Fujitsu в сотрудничестве с Университетом компьютерных наук Карнеги-Меллона разработала технологию распознавания выражений лица ИИ, которая мгновенно распознает тонкие изменения в выражениях лица, такие как неприятный или нервный смех, или растерянность, объявила компания.
До сих пор технологии, которые считывают человеческие эмоции, обычно обнаруживали явные изменения в выражении лица и использовались для автоматического выделения ярких сцен в видео и усиления реакции роботов. Человеческие эмоции трудно воспринимаются компьютерами, поэтому для выявления тонких изменений лица Fujitsu интегрировала технологию с единицами действия (AUs) целых 30 типов на основе движений, связанных с каждой лицевой мышцей, включая щек и бровей.
Чтобы достичь высокой точности, методы глубокого обучения должны были бы использовать большие объемы данных, но это не всегда возможно в реальных ситуациях, потому что, согласно объявлению, лица снимаются под разными углами, различных размеров и позиций.
Технология, разработанная Fujitsu, будет адаптировать различные процессы нормализации для каждого изображения лица, чтобы преодолеть сложность получения больших массивов данных для обучения моделей обнаружения для каждого выражения лица, как это будет выглядеть в реальных приложениях. Fujitsu объясняет, что даже если лицо субъекта находится под другим углом и не обращено к системе, технология отрегулирует изображение и сможет тренировать модель с ограниченными данными. Эта технология может быть использована в ряде реальных сценариев, таких как вовлеченность сотрудников и безопасность на рабочем месте.
Fujitsu и Школа компьютерных наук Университета Карнеги-Меллона разработали этот процесс нормализации, чтобы настроить лицо для лучшего сходства с фронтальным изображением и проанализировать важные области, которые влияют на обнаружение AU. Fujitsu говорит, что технология достигла уровня точности 81% и утверждает, что она более точна, чем другие на рынке. В дальнейшие планы входит интеграция технологии поддержки телеконференций, измерения вовлеченности сотрудников и мониторинга водителей.
Исследователи из Калифорнийского университета в Беркли и Университета Южной Калифорнии использовали анализ лицевого поведения, таких как приподнятые брови, морщины носа, движения челюстей и прижатые губы, для обнаружения deepfake видео.
По материалам Biometrics Research Group. Автор Luana Pascu.