Искусственный интеллект используют для защиты репутации и безопасности онлайн-платежей
Проверить подлинность видео позволит российская система искусственного интеллекта, способная находить на записях дипфейки — привнесенные фрагменты, которых не было в оригинале. Точность работы этой нейросети составляет около 80%, благодаря чему ее разработчики заняли третье место на престижном международном конкурсе Deepfake Detection Challenge — всего в нем участвовало 2,2 тыс. команд из разных стран. В будущем новая система будет использована для разоблачения фейковых роликов, а также для защиты от мошенничества банков и сервисов online-платежей с биометрической идентификацией.
Фейс-чекинг
В отечественной разработке используются сразу две системы искусственного интеллекта, каждая из которых отвечает за разные этапы обработки видео.
— В начале процесса первая нейросеть определяет местонахождение лица человека на изображении и вырезает эту часть из записи, — рассказал старший специалист по машинному обучению компании NtechLab (технологический партнер госкорпорации «Ростех») Азат Давлетшин. — Затем вторая часть алгоритма классифицирует полученный фрагмент, определяя вероятность его подлинности.
Для успешной работы российская нейросеть проходила обучение на большом объеме видеозаписей (их было около 100 тыс.), которые содержали как оригинальные ролики, так и образцы с привнесенной фейковой информацией. При этом обучающая выборка отличалась большим разнообразием, поскольку для ее производства был использован труд нескольких тысяч актеров.
— Как правило, в этих целях разработчики берут умеющую распознавать картинки нейросеть и дообучают ее для определения дипфейков — в результате она хорошо функционирует на тренировочных видео, но ее эффективность при анализе новых данных оставляет желать лучшего, — пояснил Азат Давлетшин. — Чтобы этого избежать, мы обучали систему на изображениях, которые были предварительно искажены (принцип аугментации).
По словам эксперта, данный подход позволил заметно повысить эффективность работы с новой информацией и увеличить точность распознавания дипфейков до 80%.
В тройке лидеров
Российская система в первую очередь будет нацелена на разоблачение высококачественных подделок, которые сложно распознать экспертам. Согласно мнению специалистов, это связано с особенностями человеческого восприятия, которое направлено не на проверку реальности происходящего, а на распознание личности. Нейросеть же концентрируется на деталях, которые человеческий глаз обычно пропускает — в частности, к ним относятся малозаметные блики на изображении, легкие искажения в лицевой мимике и т.д. И именно они позволяют системе отличить подделку от оригинала.
Нейросеть для проверки подлинности видео уже получила признание на международном уровне. В частности, отечественная разработка заняла призовое третье место на крупнейшем конкурсе по распознаванию дипфейков Deepfake Detection Challenge. Организованное компаниями Amazon, Facebook и Microsoft мероприятие проходило в онлайн-режиме в течение четырех месяцев и собрало 2,2 тыс. команд, состоящих из специалистов по машинному обучению со всего мира. Именно поэтому призеров конкурса, объявленных в июне 2020 года, можно назвать лидерами своего направления в создании нейросетей, разработки которых будут востребованы на рынке.
Игра на опережение
Ожидается, что в будущем система будет использована, например, журналистами для определения фейковых видео. Она также пригодится людям, которых хотят скомпрометировать с помощью поддельных изображений. При этом для каждой конкретной задачи нейросеть станет дообучаться под цели клиента для повышения ее максимальной эффективности в заданных условиях работы.
— Системы для проверки достоверности видеозаписей становятся всё более актуальным средством контроля, поскольку растет количество и качество дипфейков, с помощью которых злоумышленники пытаются нарушить репутацию известных людей, — отметил доцент факультета компьютерных наук НИУ ВШЭ Антон Конушин. — Необходимы такие решения и в судебной практике — в частности, для установки подлинности вещественных доказательств.
По словам эксперта, с такими подделками сейчас может столкнуться любой человек — это происходит из-за доступности программ для работы с видео. В частности, некоторым из них для генерации компрометирующего видео достаточно всего одной фотографии человека.
Впрочем, в будущем станет возможен и массовый обман населения с помощью дипфейков.
— Масштабные атаки с использованием дипфейков могут появиться уже в ближайшие годы, и тогда применение технологий для их выявления будет иметь большую цену, — сообщил пресс-секретарь компании NtechLab Николай Грунин. — Поэтому мы сейчас действуем на опережение и заранее изготавливаем броню на случай возможного удара.
Планируется, что новые нейросети найдут применение в банковской сфере и в сервисах онлайн-платежей, которые используют биометрическую идентификацию по видео и хотели бы оградить своих клиентов от случаев мошенничества.
В настоящее время система искусственного интеллекта близка к практическому применению, и основанные на ней решения могут появиться на рынке уже в ближайшие месяцы.
По материалам Известия. Автор Александр Буланов