Что делать, меня шантажируют интимными фото и виде?

Возможно, вам пишут мошенники. Если вы уверены, что они не могли получить никаких ваших интимных фото или видео, значит, максимум, что им доступно, — использовать дипфейк, технологию, которая накладывает фото вашего лица на видео или другое изображение

Deepfake станут основным способом дезинформации

Эту технологию уже применяют в конструктивных целях, например, в образовательных, или в киноиндустрии с её помощью «оживляют» исторических персонажей. Но, можно ли распознать дипфейк на видео?

В Корее разработали приложение для обнаружения deepfake

Учёные Корейского ведущего научно-технологического института (KAIST) разработали первое в Южной Корее мобильное приложение, обнаруживающее фотографии или видео, которые были созданы с помощью deepfake алгоритмов.

Игра на опережение: методы выявления дипфейков

Детекторы дипфейков не всегда справляются с выявлением подделок. Если дипфейки первого поколения выявляются с вероятностью 100%, то в случае второго поколения диапазон ошибки составляет от 15 до 30%

В Самарском университете разрабатывают сканер видеофейков

При анализе цифрового фотоснимка изображение разбивается для анализа на маленькие квадраты, а видео разделяется на кадры, и в каждом кадре анализируются локальные области на предмет наличия искажений

Общедоступный сервис оживляет старые фотографии

Не исключено, что в будущем эта разработка будет использована в онлайн-сервисах различных исторических организаций, в музеях или политическими партиями для оживления известных фигур. С одной стороны это повысит интерес к истории, но создание исторически не подтверждённых подделок пугает возможностью «документального» подтверждения для изменения исторической правды

Медицинские маски для лица препятствуют распознаванию лиц

В затруднение распознавания людей в масках есть и положительная сторона. Проблему, с которой сталкиваются сервисы аутентификации, предстоит решить программам распознавания лиц

Мошенники стали использовать для обмана deepfake-копии людей

Дмитрий Мацкевич известный в России предприниматель, и вряд ли станет связываться с мошенниками. Вероятно, эти видео были созданы мошенниками при помощи deepfake. Держитесь подальше от тех, кто предлагает быстрые заработки. Если кто-то знает, как можно ежегодно увеличивать своё состояние на 360%, то он должен хранить этот секрет в тайне, а не обесценивать его, привлекая сотни новых конкурентов

Кто должен нести ответственность за решения, принимаемые AI

Кто должен нести ответственность за принимаемые AI решения

AI все чаще присутствует в нашей повседневной жизни. Технологические компании используют огромное количество данных, доступных им, чтобы сделать более точные прогнозы, отследить наши запросы и предложить новые услуги. Поскольку AI уже используется во всем мире, возникает вопрос, кто несет ответственность за решения, принимаемые им?

Зачем мошенники записывают по телефону ваш голос

Если сервисы будут полагаться на использование голосовых команд по телефону, то мошенники смогут использовать полученные образцы для синтеза вашего голоса и последующей атаки на такие сервисы. Кстати, нейросетей, способных по сэмплам смоделировать голос, уже достаточно

Commvault прогнозирует опасное влияние Deepfake на данные

Дон Фостер (Don Foster), вице-президент по глобальным продажам Commvault, считает, что «Технологии Deep Fake простимулируют рост рынка решений для тестирования целостности и верификации данных»

Появились алгоритмы, которые опаснее deepfake

Ещё вчера все говорили про опасность алгоритмов, генерирующих поддельные изображения и голос. Обсуждалась возможность использования этих алгоритмов в конструктивных целях. Но такие алгоритмы уже вчерашний день. 2021 год ознаменуется появлением более опасных алгоритмов: алгоритмов, которые понимают причину тех или иных действий и подстраиваются под наше психологическое восприятие. Социальная инженерия автоматизируется и ставится на поток