AI оценил собственную неопределенность, для deepfake

Исследователи говорят, что они нашли эффективный способ для алгоритма ИИ, подобного тем, которые используются в биометрии, чтобы судить, насколько алгоритм уверен в своих решениях. Как сообщается, этот метод не влияет на производительность модели, и может быть использован для обнаружения дипфейков.

Программное обеспечение может быстро сообщить о своем решении, а также о своей уверенности в исходных входных данных и в самом решении.

По словам исследователей из Массачусетского технологического института и Гарвардского университета, вооруженные этой информацией, пользователи могут в режиме реального времени решить, нужно ли им переработать свою модель, чтобы получить более качественный результат.

Сегодня можно написать алгоритмы, которые оценивают и сообщают об их достоверности, но этот процесс ресурсоемкий и сравнительно медленный. Пользователи, нуждающиеся в анализе неопределенности, должны многократно запускать нейронную сеть, чтобы понять, насколько надежен алгоритм.

Эти модели непрактичны для некоторых из ожидаемых ролей ИИ, таких как автономные полеты или вождение, которые будут зависеть от чистой вычислительной мощности и почти мгновенного принятия решений.

Исследовательская группа разработала то, что они называют глубокой доказательной регрессией, для оценки неопределенности на основе одного запуска нейронной сети.

Чтобы проверить свое новшество, они обучили нейронную сеть анализировать монокулярное цветное изображение, оценивая расстояние между объективом камеры и каждым пикселем изображения. Сеть спрогнозировала высокий уровень неопределенности для пикселей, для которых она предсказала неверную глубину.

Другими словами, алгоритм был менее определенным в тех случаях, когда он делал неверные прогнозы.

Нейронная сеть обнаружила подделанные изображения. На некоторых изображениях, представленных в сети, уровень шума был повышен.

Хотя эффект был «едва заметен человеческому глазу», но, по словам исследователей, модель надежно пометила манипуляции как крайне неопределенные.

По материалам Biometrics Research Group. Автор Jim Nash

Добавить комментарий

Ваш адрес email не будет опубликован.