Индийские мошенники используют дипфейк для вымогательств

С мужчинами в соцсетях связываются женщины с фейковых аккаунтов, а затем звонят по видео, общаются с пользователем и производят действия сексуального характера

Смогут ли нейросетевые алгоритмы различить двойников?

Элла говорит, что на улице ее часто принимают за Эмму. «Мне с детства говорят, что я похожа на Эмму, но я никогда не думала об этом всерьёз, пока люди из Инстаграма и пользователи Reddit не убедили меня в том, что я двойник известной актрисы», – рассказывает Элла Нортон

Игра на опережение: методы выявления дипфейков

Детекторы дипфейков не всегда справляются с выявлением подделок. Если дипфейки первого поколения выявляются с вероятностью 100%, то в случае второго поколения диапазон ошибки составляет от 15 до 30%

Первое применение Deepfake для дискредитации соперниц

Раффаэла Мари Споне была арестована в начале марта по обвинению кибер-домогательства к детям. Она была освобождена при условии, что явится на предварительное слушание 30 марта. Не было никакой информации о том, что она наняла адвоката, и попытки связаться с ней по телефону или электронной почте не увенчались успехом

В TikTok появились дипфейк-копии знаменитостей

Отличить реальную запись от подделки становится всё сложнее и сложнее. Сейчас, чтобы это сделать – приходится приложить не мало усилий. Рассмотрим это на текущем примере:

В Clubhouse стали появляться фейки известных людей

Способом борьбы с фейками для Clubhouse могла бы стать метка подтвержденного аккаунта и включение на уровне приложения идентификации, защищающей от подделки голоса с помощью технологий голосовой биометрии. Для получения такой метки соцсеть может обязать пользователя оставить «слепок голоса», а на уровне самого приложения создать голосовую биометрию, которая будет определять, что говорящий соответствует цифровому слепку и голос не является воспроизведением с ноутбука или диктофона

В Google научились изменять скорость движения одного объекта на видео

Редактирование отдельных элементов на видеозаписи требует покадровых изменений. Обычно это делается вручную, как в мультипликации, или с использованием специальных инструментов, которые имеют ограниченный функционал и могут выполнять только отдельные запрограммированные действия. Команда разработчиков Google и Оксфордского университета смогли разделить каждый кадр видео на отдельные слои и научила ИИ распознавать в них людей или другие движущиеся объекты

Следы глобализации ведут к дезинформации

Следы глобализации ведут к дезинформации

Мутные воды лжи накрыли континент правды: всемирный потоп повторился в 2016 году, когда объём искажённых сведений впервые превысил цивилизационную интернет-достоверность. Паутина, созданная для распространения знаний, захлебнулась селевыми потоками рекламного и пропагандистского мусора.