Одним щелчком мыши любое лицо переносится в порнофильм

PEDRO NEKOI

Сайт привлекает внимание своей простотой. На белом фоне гигантская синяя кнопка предлагает посетителям загрузить изображение лица. Под кнопкой четыре лица, созданные искусственным интеллектом, позволяют протестировать сервис. Над ним смело провозглашается цель: превратить любого в порнозвезду с помощью технологии дипфейка, чтобы заменить лицо человека на видео для взрослых. Все, что для этого требуется, — это изображение и нажатие кнопки.

MIT Technology Review решила не называть службу, которую мы будем называть Y, и не использовать какие-либо прямые цитаты и скриншоты ее содержимого, чтобы избежать привлечения трафика на сайт. Это было обнаружено и доведено до нашего сведения исследователем дипфейков Генри Эйдером, который отслеживал эволюцию и рост синтетических медиа в Интернете.

На данный момент Y существует в относительной безвестности, с небольшой пользовательской базой, активно дающей создателям отзывы о разработке на онлайн-форумах. Но исследователи опасались, что подобное приложение появится, нарушив этическую линию, которую раньше не пересекала ни одна другая служба.

С самого начала дипфейки или синтетические медиа, созданные искусственным интеллектом, в основном использовались для создания порнографических изображений женщин, которые часто находят это психологически разрушительным. Первоначальный создатель Reddit, который популяризировал эту технологию, заменял лица знаменитостей в порно-видео. На сегодняшний день, по оценкам исследовательской компании Sensity AI, от 90% до 95% всех онлайн-видео deepfake являются порно без согласия, и около 90% из них посвящены женщинам.

По мере развития технологии появилось множество простых в использовании инструментов без кода, позволяющих пользователям «снимать» одежду с женских тел на изображениях. Многие из этих сервисов с тех пор были отключены, но код все еще существует в репозиториях с открытым исходным кодом и продолжает появляться в новых формах. По словам обнаружившей его исследовательницы Женевьев О, последний такой сайт в августе посетили более 6,7 миллиона человек. Его еще не переводили в автономный режим.

Были и другие приложения для смены лиц с одной фотографией, такие как ZAO или ReFace, которые помещают пользователей в избранные сцены из популярных фильмов или поп-видео. Но как первое приложение для обмена порнографическими лицами, Y выводит это на новый уровень. «Он создан специально для создания порнографических изображений людей без их согласия», — говорит Адам Додж, основатель EndTAB, некоммерческой организации, которая знакомит людей со злоупотреблениями с помощью технологий. Это упрощает для создателей улучшение технологии для этого конкретного случая использования и привлекает людей, которые в противном случае не думали бы о создании deepfake porn. «Каждый раз, когда вы специализируетесь на этом, это создает новый уголок Интернета, который привлекает новых пользователей», — говорит Додж.

Y невероятно прост в использовании. Как только пользователь загружает фотографию лица, на сайте открывается библиотека порно видео. Подавляющее большинство из них — женщины, хотя небольшая горстка также изображает мужчин, в основном в гей-порно. Затем пользователь может выбрать любое видео для предварительного просмотра результата с заменой лица в течение нескольких секунд — и заплатить, чтобы загрузить полную версию.

Результаты далеки от совершенства. Многие смены лиц явно фальшивые, лица мерцают и искажаются, когда поворачиваются под разными углами. Но для случайного наблюдателя некоторые из них достаточно тонки, чтобы пройти мимо, и траектория дипфейков уже показала, как быстро они могут стать неотличимыми от реальности. Некоторые эксперты утверждают, что качество дипфейка также не имеет большого значения, потому что психологический урон жертвам в любом случае может быть одинаковым. И многие представители общественности остаются в неведении о существовании таких технологий, поэтому даже некачественная замена лиц может обмануть людей.

Y позиционирует себя как безопасный и ответственный инструмент для исследования сексуальных фантазий. Язык на сайте поощряет пользователей загружать собственное лицо. Но ничто не мешает им загружать лица других людей, а комментарии на онлайн-форумах говорят о том, что пользователи уже делали это.

Последствия такой деятельности для женщин и девочек могут быть ужасающими. На психологическом уровне эти видео могут казаться такими же оскорбительными, как порно из мести — настоящие интимные видео, снятые или выпущенные без согласия. «Этот вид злоупотреблений — когда люди искажают вашу личность, имя, репутацию и изменяют ее таким оскорбительным образом — разбивает вас до глубины души», — говорит Ноэль Мартин, австралийская активистка, ставшая целью кампании deepfake porn.

Ноэль Мартин, австралийский активист

И последствия могут остаться с жертвами на всю жизнь. Изображения и видео сложно удалить из Интернета, и в любой момент можно создать новый материал. «Это влияет на ваши межличностные отношения; это влияет на вас с получением работы. Об этом можно вспомнить на каждом собеседовании, на которое вы когда-либо пойдете. Возможные романтические отношения, — говорит Мартин. «По сей день мне никогда не удавалось полностью удалить ни одно из изображений. Это будет вечно. Неважно что я делаю.»

Иногда это даже сложнее, чем порно о мести. Поскольку содержание не соответствует действительности, женщины могут сомневаться, заслуживают ли они того, чтобы чувствовать себя травмированными, и должны ли они сообщать об этом, говорит Додж. «Если кто-то сомневается в том, действительно ли он стал жертвой, это ухудшает его способность к выздоровлению», — говорит он.

Дипфейк-порно без согласия также может иметь экономические и карьерные последствия. Рана Айюб, индийская журналистка, ставшая жертвой кампании deepfake порнографии, после этого подверглась таким интенсивным преследованиям в сети, что ей пришлось свести к минимуму свое присутствие в сети и, следовательно, публичный профиль, необходимый для ее работы. Хелен Морт, британская поэтесса и телеведущая, которая ранее делилась своей историей с MIT Technology Review, сказала, что она почувствовала давление, чтобы сделать то же самое после того, как обнаружила, что ее фотографии были украдены из частных аккаунтов в социальных сетях для создания фальшивых обнаженных изображений.

На горячую линию Revenge Porn, финансируемую правительством Великобритании, недавно поступил случай от учителя, который потерял работу после того, как в социальных сетях были распространены глубокие фейковые порнографические изображения с ее изображением и доведены до сведения ее школы, — говорит Софи Мортимер, управляющая службой. «Становится хуже, а не лучше», — говорит Додж. «Таким образом больше женщин становятся жертвами».

По словам Аждера, возможность Y создавать deepfake гей-порно, хотя и ограничена, представляет дополнительную угрозу для мужчин в странах, где гомосексуальность криминализирован. Так обстоит дело в 71 юрисдикции по всему миру, в 11 из которых правонарушения караются смертной казнью.

Адждер, обнаруживший за последние несколько лет множество приложений с дипфейком для порно, говорит, что пытался связаться с хостинг-службой Y и отключить ее. Но он пессимистично настроен против создания подобных инструментов. Уже появился другой сайт, который, похоже, пытается сделать то же самое. Он считает, что запретить такой контент на платформах социальных сетей и, возможно, даже запретить его создание или потребление, окажется более устойчивым решением. «Это означает, что с этими веб-сайтами обращаются так же, как с материалами в темной сети», — говорит он. «Даже если его загонят под землю, это, по крайней мере, уберет это от глаз обычных людей».

Y не ответила на многочисленные запросы о комментариях в электронном письме для прессы, указанном на ее сайте. Регистрационная информация, связанная с доменом, также блокируется службой конфиденциальности Withheld for Privacy. 17 августа, после того как MIT Technology Review предприняла третью попытку связаться с создателем, сайт разместил на своей домашней странице уведомление о том, что он больше не доступен для новых пользователей. По состоянию на 12 сентября уведомление все еще оставалось на месте.

По материалам MIT Technology Review. Автор Karen Haoarchive

Добавить комментарий

Ваш адрес email не будет опубликован.