Google добавляет огромную базу данных изображений для борьбы с подделками

Исследователи говорят: распознавание лиц уязвимо для морфина

Около 95% deepfakes принимаются биометрическими системами распознавания лиц. Об этом свидетельствуют исследования, проведенные Павлом Коршуновым и Себастьеном Марселем из Научно-исследовательского института Идиап (https://www.biometricupdate.com/tag/idiap) в Мартиньи, Швейцария. По словам Коршунова и Марселя, современные системы распознавания лиц уязвимы для высококачественных фальшивых изображений…

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги

Воры используют deepfakes для обмана компаний

C момента своего появления в декабре 2017-го дипфейки, видео с почти идеальной заменой лица, созданные нейросетью, наводили на экспертов панику. Многие, например, тогда боялись, что теперь еще проще станет «порно-месть», когда бывший бойфренд с достаточно мощным ПК может смастерить любое грязное порно с подругой. А Натали Портман и Скарлетт Йоханссон, о которых порно с deepfake снимали особенно много, публично прокляли интернет.

Вредное применение deepfakes «быстро растет в интернете»

Вредное применение deepfakes «быстро растет в интернете»

В то время как губернатор Калифорнии Гэвин Ньюсом подписал закон, запрещающий распространение поддельных видео и фотографий политических кандидатов в течение 60 дней после выборов, Deepfake – базирующаяся в Амстердаме фирма по кибербезопасности, которая предоставляет технологии глубокого обучения и компьютерного зрения для обнаружения и онлайн мониторинга средств массовой информации – готовится выпустить отчет о проблеме.

Вредное применение deepfakes «быстро растет в интернете»

Почти 3/4 взрослых Великобритании не слышали о дипфейках

Согласно результатам опроса iProov, почти трое из четырех взрослых в Великобритании (72%) никогда не слышали о фальшивых видеороликах, которые могут иметь огромное значение для личной и профессиональной безопасности. Даже когда им полностью объяснили эту идею, 28% заявили, что считают подделок…

Google добавляет огромную базу данных изображений для борьбы с подделками

Google добавляет базу изображений для борьбы с подделками

Google заключил партнерские отношения с Jigsaw для производства и доставки огромной базы данных визуальных фальшивых подделок, которая в настоящее время является частью эталона FaceForensics, созданного Техническим университетом Мюнхена и Университетом Федерико II в Неаполе, о чем сообщил технический гигант в…

Создание набора данных и вызов для deepfakes

Создание набора данных и вызов для deepfakes

Наборы данных и тесты были одними из самых эффективных инструментов для ускорения прогресса в искусственном интеллекте. Наш нынешний ренессанс в области глубокого обучения был частично основан на тесте ImageNet. Последние достижения в обработке естественного языка были ускорены с помощью тестов…

Facebook и Microsoft запускают конкурс по обнаружению deepfake

Конкурс от Facebook и Microsoft по обнаружению deepfake

Facebook совместно с Microsoft и коалицией «Партнёрства по искусственному интеллекту во благо людей и общества» (PAI), а также научными работниками из нескольких университетов анонсировала конкурс на разработку технологии распознавания дипфейков (deepfake). Как сообщается в блоге Facebook, в рамках проекта, который…

Новый Deepfake позволяет редактировать речь говорящего на видео

Deepfake позволяет редактировать речь говорящего на видео

Технология Deepfake (от deep learning — «глубинное обучение» и fake videos — «поддельные видео») работает на основе алгоритмов с открытым кодом, таких как TensorFlow, и обучается по видео с YouTube. Затем система старается подставить лицо выбранного человека к исходному видео с максимальной реалистичностью.

Приложение за $50 разденет любую женщину в один клик

Создано приложение, которое при помощи нейронных сетей удаляет одежду с фотографий женщин, после чего они выглядят правдоподобно обнаженными. Программное обеспечение получило название DeepNude, оно использует фотографию одетого человека и на её основе создает новое изображение

Мир не готов к дипфейкам – можно ли что-то сделать?

Насколько точно вы сможете отличить оригинальное видео политика или другой известной персоны от сгенерированного ролика, полностью имитирующего этого человека, вплоть до свойственных ему жестов, особенностей поведения и акцента?Далее По материалам Компьютера. Автор Светлана Макина.