Повышенная живучесть необходима, когда дело доходит до обнаружения подделки

Почему повышенная живучесть необходима, когда дело доходит до обнаружения подделки

Биометрические технологии развиваются быстрыми темпами. Тем не менее, им можно доверять только в реальном мире, если они постоянно и эффективно защищены. Серьезной проблемой для отрасли является то, что у клиентов не было объективного стороннего теста, который мог бы проверить заявления о биометрической производительности, что позволило и даже поощряло поставщиков преувеличивать эти утверждения, что уже привело к проблемам мошенничества. Итак, давайте поднимем крышку!

Исследователи вводят модель анонимности AI для обеспечения конфиденциальности

Исследователи вводят модель анонимности AI для обеспечения конфиденциальности

GDPR ЕС ввел строгие правила для защиты людей и их данных, в противном случае компаниям грозят огромные штрафы. Однако, если данные не могут быть связаны с каким-либо лицом, согласие больше не требуется, и компании могут использовать его по своему усмотрению.…

Создание набора данных и вызов для deepfakes

Создание набора данных и вызов для deepfakes

Наборы данных и тесты были одними из самых эффективных инструментов для ускорения прогресса в искусственном интеллекте. Наш нынешний ренессанс в области глубокого обучения был частично основан на тесте ImageNet. Последние достижения в обработке естественного языка были ускорены с помощью тестов…

Facebook и Microsoft запускают конкурс по обнаружению deepfake

Facebook и Microsoft запускают конкурс по обнаружению deepfake

Facebook совместно с Microsoft и коалицией «Партнёрства по искусственному интеллекту во благо людей и общества» (PAI), а также научными работниками из нескольких университетов анонсировала конкурс на разработку технологии распознавания дипфейков (deepfake). Как сообщается в блоге Facebook, в рамках проекта, который…

Face ID на iPhone обманули очками и скотчем

Face ID на iPhone обманули очками и скотчем

На конференции Black Hat 2019 эксперты по безопасности показали, как можно легко обмануть систему разблокировки «по лицу» Face ID, применяющуюся в смартфонах Apple. Обхитрить датчики оказалось очень просто: для этого нужно лишь надеть обычные очки, поверх линз которых наклеены квадратики из черной и белой изоленты.

Corpsoft24 и Forte Bank запустили систему защиты от мошенничества Liveness

Corpsoft24 и Forte Bank запустили систему защиты от мошенничества Liveness

Системный интегратор «Корп софт» (Corpsoft24) встроил в CRM-систему казахстанского Forte Bank технологию Liveness. Решение распознает лицо живого человека и защищает банк от мошенничества в виде демонстрации в объектив камеры распечатанного изображения или видеофрагмента с экрана телефона/компьютера, содержащего лицо человека. Технология…

Новый Deepfake позволяет редактировать речь говорящего на видео

Новый Deepfake позволяет редактировать речь говорящего на видео. Так же просто, как в текстовом редакторе!

Технология Deepfake (от deep learning — «глубинное обучение» и fake videos — «поддельные видео») работает на основе алгоритмов с открытым кодом, таких как TensorFlow, и обучается по видео с YouTube. Затем система старается подставить лицо выбранного человека к исходному видео с максимальной реалистичностью.

Приложение за $50 разденет любую женщину в один клик

Создано приложение, которое при помощи нейронных сетей удаляет одежду с фотографий женщин, после чего они выглядят правдоподобно обнаженными. Программное обеспечение получило название DeepNude, оно использует фотографию одетого человека и на её основе создает новое изображение

Новый инструмент определяет deepfake-видео с точностью в 96%

Новый инструмент определяет deepfake-видео с точностью в 96%

Стандартные модели обнаружения поддельных видео анализируют видеокадры отдельно и пытаются определить признаки манипуляций. Новая технология требует гораздо меньше вычислительной мощности и времени — она «просматривает» видео целиком. После этого она складывает кадры видео друг на друга и ищет возможные несоответствия в том, как перемещается объект съемки.

Мир не готов к дипфейкам – можно ли что-то сделать?

Насколько точно вы сможете отличить оригинальное видео политика или другой известной персоны от сгенерированного ролика, полностью имитирующего этого человека, вплоть до свойственных ему жестов, особенностей поведения и акцента?Далее По материалам Компьютера. Автор Светлана Макина.