Индийские мошенники используют дипфейк для вымогательств

С мужчинами в соцсетях связываются женщины с фейковых аккаунтов, а затем звонят по видео, общаются с пользователем и производят действия сексуального характера

Смогут ли нейросетевые алгоритмы различить двойников?

Элла говорит, что на улице ее часто принимают за Эмму. «Мне с детства говорят, что я похожа на Эмму, но я никогда не думала об этом всерьёз, пока люди из Инстаграма и пользователи Reddit не убедили меня в том, что я двойник известной актрисы», – рассказывает Элла Нортон

Игра на опережение: методы выявления дипфейков

Детекторы дипфейков не всегда справляются с выявлением подделок. Если дипфейки первого поколения выявляются с вероятностью 100%, то в случае второго поколения диапазон ошибки составляет от 15 до 30%

Первое применение Deepfake для дискредитации соперниц

Раффаэла Мари Споне была арестована в начале марта по обвинению кибер-домогательства к детям. Она была освобождена при условии, что явится на предварительное слушание 30 марта. Не было никакой информации о том, что она наняла адвоката, и попытки связаться с ней по телефону или электронной почте не увенчались успехом

В TikTok появились дипфейк-копии знаменитостей

Отличить реальную запись от подделки становится всё сложнее и сложнее. Сейчас, чтобы это сделать – приходится приложить не мало усилий. Рассмотрим это на текущем примере:

В Clubhouse стали появляться фейки известных людей

Способом борьбы с фейками для Clubhouse могла бы стать метка подтвержденного аккаунта и включение на уровне приложения идентификации, защищающей от подделки голоса с помощью технологий голосовой биометрии. Для получения такой метки соцсеть может обязать пользователя оставить «слепок голоса», а на уровне самого приложения создать голосовую биометрию, которая будет определять, что говорящий соответствует цифровому слепку и голос не является воспроизведением с ноутбука или диктофона

Google на видео изменяет скорость движения одного объекта

Редактирование отдельных элементов на видеозаписи требует покадровых изменений. Обычно это делается вручную, как в мультипликации, или с использованием специальных инструментов, которые имеют ограниченный функционал и могут выполнять только отдельные запрограммированные действия. Команда разработчиков Google и Оксфордского университета смогли разделить каждый кадр видео на отдельные слои и научила ИИ распознавать в них людей или другие движущиеся объекты

Мошенники стали использовать для обмана deepfake-копии людей

Дмитрий Мацкевич известный в России предприниматель, и вряд ли станет связываться с мошенниками. Вероятно, эти видео были созданы мошенниками при помощи deepfake. Держитесь подальше от тех, кто предлагает быстрые заработки. Если кто-то знает, как можно ежегодно увеличивать своё состояние на 360%, то он должен хранить этот секрет в тайне, а не обесценивать его, привлекая сотни новых конкурентов

Появились алгоритмы, которые опаснее deepfake

Ещё вчера все говорили про опасность алгоритмов, генерирующих поддельные изображения и голос. Обсуждалась возможность использования этих алгоритмов в конструктивных целях. Но такие алгоритмы уже вчерашний день. 2021 год ознаменуется появлением более опасных алгоритмов: алгоритмов, которые понимают причину тех или иных действий и подстраиваются под наше психологическое восприятие. Социальная инженерия автоматизируется и ставится на поток

В 2020 году МВД возбудило 37 уголовных дел за фейки о COVID

В пресс-центре МВД России сообщили, что с начала года полиция возбудила 37 уголовных дел за распространение фейковой информации о коронавирусе и более 450 протоколов об административных правонарушениях, передает ТАСС