Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги

Хороший крупный план может обнаружить самые умные deepfake

Исследователи Массачусетского технологического института обнаружили, что вместо того, чтобы обучать сети давать общий поддельный/не поддельный прогноз, что модифицированные генераторы не могут точно моделировать определенные области поддельного изображения настолько хорошо, что поддельное изображение не может быть распознано

Что делать, меня шантажируют интимными фото и виде?

Возможно, вам пишут мошенники. Если вы уверены, что они не могли получить никаких ваших интимных фото или видео, значит, максимум, что им доступно, — использовать дипфейк, технологию, которая накладывает фото вашего лица на видео или другое изображение

Deepfake станут основным способом дезинформации

Эту технологию уже применяют в конструктивных целях, например, в образовательных, или в киноиндустрии с её помощью «оживляют» исторических персонажей. Но, можно ли распознать дипфейк на видео?

В Корее разработали приложение для обнаружения deepfake

Ученые Корейского ведущего научно-технологического института (KAIST) разработали первое в Южной Корее мобильное приложение, обнаруживающее фотографии или видео, которые были созданы с помощью deepfake алгоритмов.

Игра на опережение: методы выявления дипфейков

Детекторы дипфейков не всегда справляются с выявлением подделок. Если дипфейки первого поколения выявляются с вероятностью 100%, то в случае второго поколения диапазон ошибки составляет от 15 до 30%

В Самарском университете разрабатывают сканер видеофейков

При анализе цифрового фотоснимка изображение разбивается для анализа на маленькие квадраты, а видео разделяется на кадры, и в каждом кадре анализируются локальные области на предмет наличия искажений