Член совета Госдумы по информационной политике, информационным технологиям и связи Евгений Лифшиц полагает, что ситуацию с дипфейками нужно регулировать самим соцсетям и принимать для этого соответствующие меры.
Да, мы лишимся смешных мемов, вроде Илона Маска, поющего «Трава у дома», но зато не будет ситуации массовых беспорядков, когда, допустим в какой-то кризисный момент станет вирусным условное фейковое видео Трампа с призывом к линчеванию митингующих.
Уже разработано несколько решений для защиты публикуемого изображения от использования в системах распознавания лиц.
Команда ученых из Бостонского университета создала алгоритм, позволяющий защитить выкладываемые в интернет фотографии и видео от манипуляций. Алогритм покрывает фото или видео невидимым фильтром, и когда злоумышленник пытается использовать нейронную сеть для манипуляций с этими медиафайлами, то они либо остаются неизменными, либо полностью искажаются — встроенный фильтр отображает пиксели таким образом, что изображение становится неузнаваемым и непригодным для изготовления дипфейков.
Возможно мы сейчас живем в уникальный период экспериментального «окна», как в первые годы существования интернета, когда технология есть и доступна каждому, но еще не зарегулирована на глобальном уровне. И это «окно», судя по новостям, уже стремительно сокращается.
На законодательном уровне такие попытки уже предпринимались: в продвинутой Калифорнии, например, законом уже с прошлого года запрещено любое размещение deepfake-видео с кандидатами на выборах за 60 дней до голосования, а жители штата могут подать в суд на вставивших их лицо в порнографический дипфейк.
Очевидно, что с нынешним темпом производства в соцсетях контента и мгновенным серьезным эффектом, который оказывает его распространение, только регуляторных мер недостаточно, и ситуацию с deepfake нужно брать в свои руки самим соцсетям.
Считает Евгений Лифшиц
По словам Дмитрия Кузнецова, директора по методологии и стандартизации Positive Technologies, такие решения могут применяться в соцсетях для защиты людей от использования их изображений в дипфейках, но ее нельзя назвать полностью эффективной: «Авторы метода в своей статье демонстрируют, что точно таким же способом можно уничтожить стеганографическую защиту и сделать изображение вновь пригодным для формирования дипфейков».
Для будущих публикаций проблема теоретически будет решена, но остается проблема архивов: защищая только вновь создаваемый контент – это не окажет практически никакого влияния на уже размещённые материалы.
Если планируется каким-то образом применить защиту от обработки к уже присутствующему в интернете контенту, то встает вопрос авторского права, а также масса других этических и технологических вопросов по реализации.