Deepfake блогеры набирают популярность

Генеральный директор DOB Studio О Дже Ук утверждает, что технология, разработанная его компанией, отличается от того, что обычно называют «дипфейком». В то время как стандартная технология deepfake просто сочетает в себе черты реального человека с чертами кого-то ещё, система DOB Studio создаёт совершенно новое лицо, что делает практически невозможным распознавание подделки человеческим глазом

Лучший детектор deepfake – это человеческий глаз

Фейковые видео имеют настолько высокий потенциал дестабилизации, что агентство новейших разработок Минобороны США DARPA приняло решение провести конкурс, основной задачей которого будет определение наиболее эффективных методов распознавания «дипфейков»

A/B тест? Почему не A/Z?

Почему A/B тест, а не A/Z? Или каким должен быть тест

A/B-тестирование стало неотъемлемой частью моей работы: ключевые слова, группы объявлений, копирайтинг, видео, платформы, актеры. Каждый тест требовал денег, времени и хлопот, связанных с другими людьми

Нейросеть определяет поддельные изображения по глазам

В подготовленном документе описана методика, разработанная Сывея Люя (Siwei Lyu) из Университета штата Нью-Йорк в Буффало. Предлагаемый метод выявляет дипфейки, анализируя роговицы глаз человека, которые способны отображать внешнюю обстановку. Поскольку глаза человека расположены гораздо ближе друг к другу, чем источник света, на реальной фотографии отражения в обоих глазах почти одинаковы, т.е. на реальном снимке отражение в обоих глазах человека будут идентичными, а синтезированные изображения пока ещё не могут точно передать это сходство

Первое применение Deepfake для дискредитации соперниц

Раффаэла Мари Споне была арестована в начале марта по обвинению кибер-домогательства к детям. Она была освобождена при условии, что явится на предварительное слушание 30 марта. Не было никакой информации о том, что она наняла адвоката, и попытки связаться с ней по телефону или электронной почте не увенчались успехом

Что это: политический вызов или deepfake?

Если подготовка этого материала велась профессионалами, то обычные средства выявления подделок не смогут их обнаружить. Но есть большое сомнения, что здравомыслящий политик, не желающий конфронтации между двумя странами, мог сделать такое заявление

Auraya Systems модернизирует голосовой биометрический детектор мошенничества

Lovo запустила AI платформу , которая генерирует голоса

Компания Lovo, Inc. из Калифорнийского университета в Беркли, разработала решение, которое называет «голосовой платформой, похожей на человека». Решение предназначено для образования, маркетинга, развлечения и другого аудио контента.

Рассказываем, как можно ли обнаружить дипфейк-видео

Артефакты – это не просто вещи, которые Индиана Джонс помещает в музеи, – это ещё и небольшие отклонения, оставленные после обработки изображения или видео. В ранних дипфейках их часто можно было уловить человеческим глазом, а плохие дипфейки всё ещё могут иметь несколько предупреждающих знаков, таких как размытие по краям, чрезмерно сглаженное лицо, двойные брови, глюки или вообще ощущение «неестественного поведения лица»

Видео интервью с CEO компании дипфейк разработок Марией Чмир

Где проходит грань между дипфейком и технологией face swap? Какие технологические этапы предстоит пройти, чтобы вернуть на экраны Жоржа Милославского? В чем слабые стороны у нейросетей? Какие видеокарты нужны для их обучения?

В Самарском университете разрабатывают сканер видеофейков

При анализе цифрового фотоснимка изображение разбивается для анализа на маленькие квадраты, а видео разделяется на кадры, и в каждом кадре анализируются локальные области на предмет наличия искажений

Нейросетевой алгоритм против deepfake

Существуют простые способы отличить deepfake изображение от подлинного, например, внимательно рассмотрев задний фон изображения, детали, углы — так называемые «швы» картинки. Однако если синтез произведен качественно и с пост-обработкой, заметить его невооруженным глазом становится все сложнее

В TikTok появились дипфейк-копии знаменитостей

Отличить реальную запись от подделки становится всё сложнее и сложнее. Сейчас, чтобы это сделать – приходится приложить не мало усилий. Рассмотрим это на текущем примере:

Общедоступный сервис оживляет старые фотографии

Не исключено, что в будущем эта разработка будет использована в онлайн-сервисах различных исторических организаций, в музеях или политическими партиями для оживления известных фигур. С одной стороны это повысит интерес к истории, но создание исторически не подтверждённых подделок пугает возможностью «документального» подтверждения для изменения исторической правды