Регулирование Deepfake в будущем

Член совета Госдумы по информационной политике, информационным технологиям и связи Евгений Лифшиц полагает, что ситуацию с дипфейками нужно регулировать самим соцсетям и принимать для этого соответствующие меры.

Да, мы лишимся смешных мемов, вроде Илона Маска, поющего «Трава у дома», но зато не будет ситуации массовых беспорядков, когда, допустим в какой-то кризисный момент станет вирусным условное фейковое видео Трампа с призывом к линчеванию митингующих.

Уже разработано несколько решений для защиты публикуемого изображения от использования в системах распознавания лиц.

Команда ученых из Бостонского университета создала алгоритм, позволяющий защитить выкладываемые в интернет фотографии и видео от манипуляций. Алогритм покрывает фото или видео невидимым фильтром, и когда злоумышленник пытается использовать нейронную сеть для манипуляций с этими медиафайлами, то они либо остаются неизменными, либо полностью искажаются — встроенный фильтр отображает пиксели таким образом, что изображение становится неузнаваемым и непригодным для изготовления дипфейков.

Создана защита от дипфейков

Возможно мы сейчас живем в уникальный период экспериментального «окна», как в первые годы существования интернета, когда технология есть и доступна каждому, но еще не зарегулирована на глобальном уровне. И это «окно», судя по новостям, уже стремительно сокращается.

На законодательном уровне такие попытки уже предпринимались: в продвинутой Калифорнии, например, законом уже с прошлого года запрещено любое размещение deepfake-видео с кандидатами на выборах за 60 дней до голосования, а жители штата могут подать в суд на вставивших их лицо в порнографический дипфейк.

Очевидно, что с нынешним темпом производства в соцсетях контента и мгновенным серьезным эффектом, который оказывает его распространение, только регуляторных мер недостаточно, и ситуацию с deepfake нужно брать в свои руки самим соцсетям.

Считает Евгений Лифшиц

По словам Дмитрия Кузнецова, директора по методологии и стандартизации Positive Technologies, такие решения могут применяться в соцсетях для защиты людей от использования их изображений в дипфейках, но ее нельзя назвать полностью эффективной: «Авторы метода в своей статье демонстрируют, что точно таким же способом можно уничтожить стеганографическую защиту и сделать изображение вновь пригодным для формирования дипфейков».

Для будущих публикаций проблема теоретически будет решена, но остается проблема архивов: защищая только вновь создаваемый контент – это не окажет практически никакого влияния на уже размещённые материалы.

Если планируется каким-то образом применить защиту от обработки к уже присутствующему в интернете контенту, то встает вопрос авторского права, а также масса других этических и технологических вопросов по реализации.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *