Apple получила патент на создание глубоких подделок, и лучшее, на что может надеяться мир, – это то, что Apple использует его только как способ обанкротить преступные сети синтетических медиа.
Две причины: Нет больше причин доверять Apple в изготовлении фальшивок, чем любой другой компании. А предлагаемые в мире средства защиты от вредоносных алгоритмов – это либо чрезвычайно краткосрочные исправления, либо надежды.
Сравните то, что Apple, вероятно, будет делать с помощью своего патентом (обнаруженным Patently Apple), с тем, что предлагают светлые умы для обнаружения глубоко подделанных видео, особенно те, которые используются для обмана. Патент распространяется на изменение выражения и позы изображения лица.
Компания Apple производит живой и анимированный видеоконтент и владеет местом на дисплеях миллионов ладоней и запястий. Без сомнения, Apple будет оцифровывать лица для метавселенной, игр, фильмов и аватаров приложений.
Другими словами, она нормализует самую большую угрозу коллективной реальности со времен Facebook. Посмотрите, как это уже происходит. Снова и снова информационные технологии несут новые опасности с каждым шагом вперед.
Затем есть Gotcha, система и методы, предложенные благонамеренными исследователями из Нью-Йоркского университета (работающими по аналогии с аналогичными исследованиями в Университете Бен-Гуриона), надеющимися укротить угрозу deepfake.
Gotcha атакует алгоритмы потоковой передачи deepfake в реальном времени, заставляя код раскрывать себя.
Есть много примеров того, как это можно сделать, и их можно найти в отличном обзоре разработки, подготовленном издательством Unite.AI . Но, пожалуй, самый лучший из них таков: два человека вступают в видеозвонок. Каждый из них прикладывает палец к своей щеке или корчит необычное лицо.
Поскольку обучение алгоритма deepfake сегодня вряд ли включает в себя имитацию всех жестов и выражений, то он будет отображать что-то странное.
Если это похоже на видео Captcha, самую ненавистную проверку реальности в Интернете, то это потому, что так оно и есть.
Справедливости ради следует отметить, что учёные из Нью–Йоркского университета признают, что никто, начиная от управляющего филиала или мэра деревни и выше, никогда не согласится корчить рожи перед камерой – даже делая что-то безобидное, например, вытягивая шею, чтобы посмотреть вверх, или прикрывая часть лица рукой.
Пассивные методы воздействия на модели, выходящие за рамки их подготовки включают наложение текста, скрытие частей лиц за цифровыми вырезами и перегрузку обрабатываемых кадров.
Исследователи говорят, что их метод показал, что он может подтолкнуть вредоносное программное обеспечение к тому, что любой, кто посмотрит хотя бы на один кадр, будет знать, что перед ним код, а не человек.
Проблема здесь в том, что всестороннее обучение моделей – имплантация большинства или всех неожиданных вещей, которые человек может сделать перед камерой, – вероятно, произойдёт раньше, чем кто-либо может себе представить.
По материалам Biometrics Research Group. Автор Jim Nash