За последние несколько лет фейковые новости стали серьезной проблемой. Считается, что они сыграли важную роль в таких важных электоральных процессах как выборы Президента США в 2016 году и референдум по выходу Великобритании из Евросоюза (Brexit) в том же году.
Рубрика: Обзор
Facebook AI Research заявила о разработке системы машинного обучения, которая не дает искусственному интеллекту определять людей по видео. На этой технологии основаны все современные системы распознавания лиц.
Поддельные видео — именно та сфера, где в рамках самой технологии нельзя решить порождаемые ею проблемы. MIT Tech Review оценивает главные риски, связанные с дипфейками, и предлагает возможные решения.
Часто человека идентифицируют по лицу, но новая 3D камера Intel RealSense D415 позволяет обнаружить попытку такого обмана
Не смотря на все прелести интернета, у него есть много минусов, и один из самых ужасных – это введения людей в заблуждение
C момента своего появления в декабре 2017-го дипфейки, видео с почти идеальной заменой лица, созданные нейросетью, наводили на экспертов панику. Многие, например, тогда боялись, что теперь еще проще станет «порно-месть», когда бывший бойфренд с достаточно мощным ПК может смастерить любое грязное порно с подругой. А Натали Портман и Скарлетт Йоханссон, о которых порно с deepfake снимали особенно много, публично прокляли интернет.
Технология Deepfake (от deep learning — «глубинное обучение» и fake videos — «поддельные видео») работает на основе алгоритмов с открытым кодом, таких как TensorFlow, и обучается по видео с YouTube. Затем система старается подставить лицо выбранного человека к исходному видео с максимальной реалистичностью.
Создано приложение, которое при помощи нейронных сетей удаляет одежду с фотографий женщин, после чего они выглядят правдоподобно обнаженными. Программное обеспечение получило название DeepNude, оно использует фотографию одетого человека и на её основе создает новое изображение
Стандартные модели обнаружения поддельных видео анализируют видеокадры отдельно и пытаются определить признаки манипуляций
Насколько точно вы сможете отличить оригинальное видео политика или другой известной персоны от сгенерированного ролика, полностью имитирующего этого человека, вплоть до свойственных ему жестов, особенностей поведения и акцента?Далее По материалам Компьютера. Автор Светлана Макина.
В этой статье обобщена информация о существующих методах liveness detection, которые применяются для защиты от взлома систем распознавания лиц.
Нейросети — не только будущие вычислительных технологий, но и занятные игрушки. Некоторые уже используются — например, для распознавания номеров автомобилей