Шаг за шагом учимся делать дипфейки в DeepFaceLab – нейросетевой программе, меняющей лица в видеороликах
Рубрика: Обзор
Эксперты из Нью-Йоркского университета и Университета Мичигана опубликовали доклад, посвященный генеративно-состязательной сети DeepMasterPrints
Есть два варианта подделки:
– В видео — присвоение одному персонажу лица другого человека.
– Генерация полностью несуществующей личности.
В современном информационном пространстве не существует таких понятий, как факт и выдумка. Эти реалии остались в далеком прошлом. Сегодня факт – не то, что было в реальности, а то, о чем слышала критическая масса потребителей информации.
Результаты мониторинга инфопространства демонстрируют достаточно высокую обеспокоенность профессионального сообщества устойчивостью систем идентификации
К сожалению, мошенничество обрело такие масштабы, что сейчас собственный голос может навредить человеку. Дело в том, что появилась совершенно новая схема обмана
Неискушенным зрителям YouTube, где такой продукции становится все больше, будет не лишним знать несколько советов, позволяющих выявлять DeepFake.
Команда из X-Lab Tencent продемонстрировала метод, который, по их словам, работает на всех телефонах против всех трёх типов датчиков
Роботы из Redmadrobot Data Lab рассказывают про новости, кейсы и подходы в ИИ, которые можно переложить на нашу действительность и реально использовать
Компания Pindrop, которая специализируется на голосовой безопасности и аутентификации, сообщила, что голосовое мошенничество – это новейшая форма технологии Deepfake, которая является растущей «основной угрозой, с темпами роста более чем на 350% с 2014 по 2018 год». В ежегодном отчете компании…
Технологические гиганты уже выделяют миллионы долларов для борьбы с поддельным контентом.
Слово «дипфейки» все чаще появляется в наших лентах и эфирах ведущих мировых телеканалов. Технологические гиганты, такие как Amazon, Facebook вместе работают над тем, чтобы дать им бой. Рассказываем, что это такое и как они изменят наш мир.
С развитием искусственного интеллекта усовершенствуются программные алгоритмы не только для развлечения пользователей, но и для совершения мошеннических операций киберпреступниками. Об этом заявили разработчики антивируса ESET. Они уточнили, что особую опасность представляет технология Deepfake, о которой и пойдет речь в статье.
Способность искусственного интеллекта (ИИ) генерировать поддельные фото- и видеоизображения — это еще одна темная сторона технологий и назревающая проблема. Технология deepfake позволяет заменять лица на видеозаписях при помощи противопоставления двух генеративно-состязательных сетей (GAN). И хотя эта форма ИИ была в центре внимания…
За последние несколько лет фейковые новости стали серьезной проблемой. Считается, что они сыграли важную роль в таких важных электоральных процессах как выборы Президента США в 2016 году и референдум по выходу Великобритании из Евросоюза (Brexit) в том же году.
Facebook AI Research заявила о разработке системы машинного обучения, которая не дает искусственному интеллекту определять людей по видео. На этой технологии основаны все современные системы распознавания лиц.
Поддельные видео — именно та сфера, где в рамках самой технологии нельзя решить порождаемые ею проблемы. MIT Tech Review оценивает главные риски, связанные с дипфейками, и предлагает возможные решения.
Часто человека идентифицируют по лицу, но новая 3D камера Intel RealSense D415 позволяет обнаружить попытку такого обмана
Не смотря на все прелести интернета, у него есть много минусов, и один из самых ужасных – это введения людей в заблуждение
C момента своего появления в декабре 2017-го дипфейки, видео с почти идеальной заменой лица, созданные нейросетью, наводили на экспертов панику. Многие, например, тогда боялись, что теперь еще проще станет «порно-месть», когда бывший бойфренд с достаточно мощным ПК может смастерить любое грязное порно с подругой. А Натали Портман и Скарлетт Йоханссон, о которых порно с deepfake снимали особенно много, публично прокляли интернет.
Технология Deepfake (от deep learning — «глубинное обучение» и fake videos — «поддельные видео») работает на основе алгоритмов с открытым кодом, таких как TensorFlow, и обучается по видео с YouTube. Затем система старается подставить лицо выбранного человека к исходному видео с максимальной реалистичностью.
Создано приложение, которое при помощи нейронных сетей удаляет одежду с фотографий женщин, после чего они выглядят правдоподобно обнаженными. Программное обеспечение получило название DeepNude, оно использует фотографию одетого человека и на её основе создает новое изображение
Стандартные модели обнаружения поддельных видео анализируют видеокадры отдельно и пытаются определить признаки манипуляций
Насколько точно вы сможете отличить оригинальное видео политика или другой известной персоны от сгенерированного ролика, полностью имитирующего этого человека, вплоть до свойственных ему жестов, особенностей поведения и акцента?Далее По материалам Компьютера. Автор Светлана Макина.
В этой статье обобщена информация о существующих методах liveness detection, которые применяются для защиты от взлома систем распознавания лиц.