Фиксируют массовое появление поддельных видео с задействованием искусственного интеллекта

Фиксируют массовое появление поддельных видео с задействованием искусственного интеллекта

С развитием искусственного интеллекта усовершенствуются программные алгоритмы не только для развлечения пользователей, но и для совершения мошеннических операций киберпреступниками. Об этом заявили разработчики антивируса ESET. Они уточнили, что особую опасность представляет технология Deepfake, о которой и пойдет речь в статье.

Китайские исследователи раскрывают способ обхода биометрических сканеров отпечатков пальцев в смартфонах

Китайские исследователи раскрывают способ обхода биометрических сканеров отпечатков пальцев

Весь процесс этого клонирования отпечатка у специалистов занимает всего-лишь 20 минут. И всё начинается вполне логично — первого попавшегося добровольца попросили притронуться к стакану, и наблюдать за волшебством. Глава X-Lab в свою очередь сделал фотографии отпечатка со стакана, после чего пропустил это фото через приложение, способное извлечь точные данные. После чего была сделана физическая компания этого отпечатка, и она то и смогла обмануть все защитные системы смартфонов.

игра в кошки-мышки с поддельными изображениями

Deepfake: игра в кошки-мышки с поддельными изображениями

Способность искусственного интеллекта (ИИ) генерировать поддельные фото- и видеоизображения — это еще одна темная сторона технологий и назревающая проблема. Технология deepfake позволяет заменять лица на видеозаписях при помощи противопоставления двух генеративно-состязательных сетей (GAN). И хотя эта форма ИИ была в центре внимания…

Темная сторона искусственного интеллекта

Мошенничество с deepfake: темная сторона искусственного интеллекта

За последние несколько лет фейковые новости стали серьезной проблемой. Считается, что они сыграли важную роль в таких важных электоральных процессах как выборы Президента США в 2016 году и референдум по выходу Великобритании из Евросоюза (Brexit) в том же году.

Клонирование голоса теперь и в России

Клонирование голоса теперь и в России

Компания Screenlife вместе с разработчиком HR-сервиса займется развитием нейросети на основе искусственного интеллекта. Сеть сможет смоделировать и воспроизвести любые голоса на русском языке — от президента до звезд Голливуда. Далее

Facebook презентовала систему ИИ, которая может обмануть искусственный интеллект

Facebook презентовала систему ИИ, которая может обмануть искусственный интеллект на видео

Facebook AI Research заявила о разработке системы машинного обучения, которая не дает искусственному интеллекту определять людей по видео. На этой технологии основаны все современные системы распознавания лиц.

MIT: три главные угрозы дипфейков не устранить технологиями

MIT: три главные угрозы дипфейков не устранить технологиями

Поддельные видео — именно та сфера, где в рамках самой технологии нельзя решить порождаемые ею проблемы. MIT Tech Review оценивает главные риски, связанные с дипфейками, и предлагает возможные решения.

DeepFake своими руками [часть 1]

DeepFake своими руками [часть 1]

Не смотря на все прелести интернета, у него есть много минусов, и один из самых ужасных – это введения людей в заблуждение. Кликбейт, монтаж фотографий, ложные новости – все эти инструменты активно используются для обмана обычных пользователей в мировой сети,…

Fujitsu и Carnegie Mellon разрабатывают технологию распознавания выражений лица

Fujitsu и Carnegie Mellon разрабатывают технологию распознавания выражений лица

Японская компания Fujitsu в сотрудничестве с Университетом компьютерных наук Карнеги-Меллона разработала технологию распознавания выражений лица ИИ, которая мгновенно распознает тонкие изменения в выражениях лица, такие как неприятный или нервный смех, или растерянность, объявила компания. До сих пор технологии, которые считывают…

Google добавляет огромную базу данных изображений для борьбы с подделками

Исследователи говорят, что системы распознавания лиц могут быть уязвимы для deep morph

Около 95% deepfakes принимаются биометрическими системами распознавания лиц. Об этом свидетельствуют исследования, проведенные Павлом Коршуновым и Себастьеном Марселем из Научно-исследовательского института Идиап (https://www.biometricupdate.com/tag/idiap) в Мартиньи, Швейцария. По словам Коршунова и Марселя, современные системы распознавания лиц уязвимы для высококачественных фальшивых изображений…

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги

C момента своего появления в декабре 2017-го дипфейки, видео с почти идеальной заменой лица, созданные нейросетью, наводили на экспертов панику. Многие, например, тогда боялись, что теперь еще проще станет «порно-месть», когда бывший бойфренд с достаточно мощным ПК может смастерить любое грязное порно с подругой. А Натали Портман и Скарлетт Йоханссон, о которых порно с deepfake снимали особенно много, публично прокляли интернет.

Вредное применение deepfakes «быстро растет в интернете»

Вредное применение deepfakes «быстро растет в интернете»

В то время как губернатор Калифорнии Гэвин Ньюсом подписал закон, запрещающий распространение поддельных видео и фотографий политических кандидатов в течение 60 дней после выборов, Deepfake – базирующаяся в Амстердаме фирма по кибербезопасности, которая предоставляет технологии глубокого обучения и компьютерного зрения для обнаружения и онлайн мониторинга средств массовой информации – готовится выпустить отчет о проблеме.

Вредное применение deepfakes «быстро растет в интернете»

Почти три четверти взрослых в Великобритании никогда не слышали о глубоких подделках

Согласно результатам опроса iProov, почти трое из четырех взрослых в Великобритании (72%) никогда не слышали о фальшивых видеороликах, которые могут иметь огромное значение для личной и профессиональной безопасности. Даже когда им полностью объяснили эту идею, 28% заявили, что считают подделок…

Google добавляет огромную базу данных изображений для борьбы с подделками

Google добавляет огромную базу данных изображений для борьбы с подделками

Google заключил партнерские отношения с Jigsaw для производства и доставки огромной базы данных визуальных фальшивых подделок, которая в настоящее время является частью эталона FaceForensics, созданного Техническим университетом Мюнхена и Университетом Федерико II в Неаполе, о чем сообщил технический гигант в…

Исследователи вводят модель анонимности AI для обеспечения конфиденциальности

Исследователи вводят модель анонимности AI для обеспечения конфиденциальности

GDPR ЕС ввел строгие правила для защиты людей и их данных, в противном случае компаниям грозят огромные штрафы. Однако, если данные не могут быть связаны с каким-либо лицом, согласие больше не требуется, и компании могут использовать его по своему усмотрению.…

Создание набора данных и вызов для deepfakes

Создание набора данных и вызов для deepfakes

Наборы данных и тесты были одними из самых эффективных инструментов для ускорения прогресса в искусственном интеллекте. Наш нынешний ренессанс в области глубокого обучения был частично основан на тесте ImageNet. Последние достижения в обработке естественного языка были ускорены с помощью тестов…

Facebook и Microsoft запускают конкурс по обнаружению deepfake

Facebook и Microsoft запускают конкурс по обнаружению deepfake

Facebook совместно с Microsoft и коалицией «Партнёрства по искусственному интеллекту во благо людей и общества» (PAI), а также научными работниками из нескольких университетов анонсировала конкурс на разработку технологии распознавания дипфейков (deepfake). Как сообщается в блоге Facebook, в рамках проекта, который…

Face ID на iPhone обманули очками и скотчем

Face ID на iPhone обманули очками и скотчем

На конференции Black Hat 2019 эксперты по безопасности показали, как можно легко обмануть систему разблокировки «по лицу» Face ID, применяющуюся в смартфонах Apple. Обхитрить датчики оказалось очень просто: для этого нужно лишь надеть обычные очки, поверх линз которых наклеены квадратики из черной и белой изоленты.

Corpsoft24 и Forte Bank запустили систему защиты от мошенничества Liveness

Corpsoft24 и Forte Bank запустили систему защиты от мошенничества Liveness

Системный интегратор «Корп софт» (Corpsoft24) встроил в CRM-систему казахстанского Forte Bank технологию Liveness. Решение распознает лицо живого человека и защищает банк от мошенничества в виде демонстрации в объектив камеры распечатанного изображения или видеофрагмента с экрана телефона/компьютера, содержащего лицо человека. Технология…

Новый Deepfake позволяет редактировать речь говорящего на видео

Новый Deepfake позволяет редактировать речь говорящего на видео. Так же просто, как в текстовом редакторе!

Технология Deepfake (от deep learning — «глубинное обучение» и fake videos — «поддельные видео») работает на основе алгоритмов с открытым кодом, таких как TensorFlow, и обучается по видео с YouTube. Затем система старается подставить лицо выбранного человека к исходному видео с максимальной реалистичностью.