«Инсайт»: технология Deepfake и опасна, и полезна

После того как группа депутатов Рийгикогу провела видеовстречу c Леонидом Волковым, руководителем штаба оппозиционного российского политика Алексея Навального, который оказался ненастоящим, в Эстонии стали активно обсуждать технологию – Deepfake, реалистично подменяющую лица и голоса людей.

Депутат Рийгикогу Марко Михкельсон после встречи с лже-Волковым уверенно заявил, что подмена была сделана с помощью замены изображения, и что это была операция российских спецслужб. «Мы должны очень серьёзно относится к таким кибератакам и понимать, что это один из многочисленных инструментов, используемый российскими спецслужбами», – сказал Михкельсон.

Сначала распознавали лица, теперь их подменяют

Своими корнями технология Deepfake уходит в технологию распознавания лиц, разработка которой началась 40 лет назад, а широко её применять стали начиная со второй половины 2010 года. В 2017 году энтузиасты ради любопытства решили соединить две нейросети: распознающую и создающую лица. Так и родился Deepfake.

«Как и любой инструмент, технология Deepfake может быть использована как во благо, так и во зло. Пределом здесь служит лишь человеческая фантазия», – говорит советника отдела стратегической коммуникации правительства Эстонии Сийм Кумпас.

Спецслужбы постарались

Возможно, депутатов Эстонии, Латвии и Литвы действительно обманули спецслужбы с помощью новой технологии. Но всё же категоричным в этом вопросе быть нельзя, ведь сегодня к технологии изменения лиц может получить доступ любой желающий.

«Поскольку эта технология с открытым исходным кодом, её легко можно скачать. Причём есть возможность запустить технологию, не имея мощного оборудования, просто отсылая видеозапись в облако Google», – пояснил специалист по безопасности в Интернете Александр Тавген.

Подменить чужое лицо нелегко

На словах всё выглядит просто, однако на деле всё обстоит несколько иначе. «На данный момент технология ещё пока находится на стадии разработки и требует достаточно больших ресурсов. В принципе, обычному человеку на своем домашнем компьютере она ещё не доступна. Хотя уже есть сервисы, где можно за деньги использовать мощь большой сети компьютеров и генерировать видео изображения», – сказал Антон Кекс.

«Инсайт» попытался наложить собственное 30-секундное видео на видеоизображение бывшего премьер-министра Юри Ратаса. Нейросеть на сайте deepfakesweb за пять часов смогла весьма условно воссоздать лицо известного человека. С помощью такого видео никого обмануть нельзя. Поэтому есть большие сомнения, что во время видеосвязи депутатов и лже-Волкова применялась технология Deepfake. В том числе и потому, что нейросеть всё ещё не может менять лица в режиме реального времени.

По мнению Александра Тавгена, сейчас технология не достигла такого качества, чтобы в режиме реального времени обманывать большое число людей.

Сийм Кумпас так же не уверен, что  депутатов обманули с помощью нейросети. «Могло быть и то, и другое. Но этот пример иллюстрирует, что мы не обращали внимания на Deepfake в контексте видеоконференций или встреч. Опасность кроется в том, что можно создать такую реальность, когда кто-то говорит настолько убедительно, что за ним могут последовать реальные события – какие-то беспорядки или определенный выбор во время голосования, или что-то ещё», – уверен Кумпас.

Смотрите на уши и бороду

В случае каких-либо сомнений надо смотреть на границы лица. «Чаще всего бывают какие-то искажения там, где начинаются волосы, борода, в районе шеи и ушей. Нейросеть реконструирует лицо, но не меняет причёску, цвет волос, форму ушей и так далее», – объяснил Антон Кекс.

Кстати, его слова подтверждает и видео, которое получилось у редактора «Инсайта». Ему удалось «примерить» лицо Юри Ратаса, но причёску и пропорции оригинала программа изменить не смогла.

Чтобы нейросеть достоверно отображала человека, она должна очень хорошо изучить его лицо, мимику, повороты головы. А для этого нужны сотни тысяч изображений оригинала.

Например, на данный момент нейросеть создала миллионы фотографий несуществующих людей, основываясь на сотнях миллионов фотографий реальных людей, размещённых в интернете. Тем не менее в этих статичных фотографиях до сих пор можно невооруженным глазом обнаружить искажения.

Возрождение умерших актёров

Кроме розыгрышей или разведки, есть у этой технологии и другое применение. Помните, Пола Уокера, уезжающего в закат в конце седьмой части франшизы «Форсаж»? К тому времени актёр уже погиб в автокатастрофе, поэтому его лицо было воссоздано с помощью компьютерной графики. «В принципе, один из вариантов, где можно использовать Deepfake – возрождать, например, старых и всеми любимых», – уверен Антон Кекс.

Более того, считает Александр Тавген, в обозримом будущем нейросеть сможет самостоятельно создавать фильмы на основе адаптированных сценариев, только фильм каждый раз будет новым.

Мошенники не дремлют

Естественно, новую технологию не обошли своим вниманием и мошенники. По словам Сийма Кумпаса, два года назад в Великобритании у одной компании обманом выманили более 200 000 евро. Когда предполагаемый деловой партнёр позвонил сотруднику компании и сказал, что надо быстро перевести ему определенную сумму денег – этот звонок был настолько убедительным, что аферу удалось провернуть.

«Сейчас уже многие услуги перешли в онлайн и в принципе вы очень часто вместо личного общения разговариваете по интернету с кем-то. Теперь уже гораздо меньше вероятность, что вы говорите с тем человеком, с кем вы думаете, что говорите», – описал пугающее настоящее и мрачное будущее Антон Кекс.

Но не так страшен чёрт, как его малюют.  Например, в случае сомнений достаточно просто позвонить собеседнику по обычной телефонной связи. Вряд ли на такой звонок смогут ответить мошенники.

Кроме такого простого способа проверки, многие страны обсуждают необходимость законодательства, защищающего людей от Deepfake, а ещё программисты создают нейросети, противодействующие и обнаруживающие ложные изображения.

Поо материалам ERR. Автор Артур Тооман

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *