Темная сторона искусственного интеллекта

Мошенничество с deepfake: темная сторона ИИ

За последние несколько лет фейковые новости стали серьезной проблемой. Считается, что они сыграли важную роль в таких важных электоральных процессах как выборы Президента США в 2016 году и референдум по выходу Великобритании из Евросоюза (Brexit) в том же году.

Клонирование голоса теперь и в России

Клонирование голоса теперь и в России

Компания Screenlife вместе с разработчиком HR-сервиса займется развитием нейросети на основе искусственного интеллекта. Сеть сможет смоделировать и воспроизвести любые голоса на русском языке — от президента до звезд Голливуда. Далее

Facebook презентовала систему ИИ, которая может обмануть искусственный интеллект

Facebook презентовала систему, которая может обмануть ИИ

Facebook AI Research заявила о разработке системы машинного обучения, которая не дает искусственному интеллекту определять людей по видео. На этой технологии основаны все современные системы распознавания лиц.

MIT: три главные угрозы дипфейков не устранить технологиями

MIT: три главные угрозы дипфейков не устранить технологиями

Поддельные видео — именно та сфера, где в рамках самой технологии нельзя решить порождаемые ею проблемы. MIT Tech Review оценивает главные риски, связанные с дипфейками, и предлагает возможные решения.

DeepFake своими руками [часть 1]

DeepFake своими руками [часть 1]

Не смотря на все прелести интернета, у него есть много минусов, и один из самых ужасных – это введения людей в заблуждение. Кликбейт, монтаж фотографий, ложные новости – все эти инструменты активно используются для обмана обычных пользователей в мировой сети,…

Fujitsu и Carnegie Mellon разрабатывают технологию распознавания выражений лица

Fujitsu и Carnegie Mellon разрабатывают распознавание выражений лица

Японская компания Fujitsu в сотрудничестве с Университетом компьютерных наук Карнеги-Меллона разработала технологию распознавания выражений лица ИИ, которая мгновенно распознает тонкие изменения в выражениях лица, такие как неприятный или нервный смех, или растерянность, объявила компания. До сих пор технологии, которые считывают…

Google добавляет огромную базу данных изображений для борьбы с подделками

Исследователи говорят: распознавание лиц уязвимо для морфина

Около 95% deepfakes принимаются биометрическими системами распознавания лиц. Об этом свидетельствуют исследования, проведенные Павлом Коршуновым и Себастьеном Марселем из Научно-исследовательского института Идиап (https://www.biometricupdate.com/tag/idiap) в Мартиньи, Швейцария. По словам Коршунова и Марселя, современные системы распознавания лиц уязвимы для высококачественных фальшивых изображений…

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги

Воры используют deepfakes для обмана компаний

C момента своего появления в декабре 2017-го дипфейки, видео с почти идеальной заменой лица, созданные нейросетью, наводили на экспертов панику. Многие, например, тогда боялись, что теперь еще проще станет «порно-месть», когда бывший бойфренд с достаточно мощным ПК может смастерить любое грязное порно с подругой. А Натали Портман и Скарлетт Йоханссон, о которых порно с deepfake снимали особенно много, публично прокляли интернет.

Вредное применение deepfakes «быстро растет в интернете»

Вредное применение deepfakes «быстро растет в интернете»

В то время как губернатор Калифорнии Гэвин Ньюсом подписал закон, запрещающий распространение поддельных видео и фотографий политических кандидатов в течение 60 дней после выборов, Deepfake – базирующаяся в Амстердаме фирма по кибербезопасности, которая предоставляет технологии глубокого обучения и компьютерного зрения для обнаружения и онлайн мониторинга средств массовой информации – готовится выпустить отчет о проблеме.

Вредное применение deepfakes «быстро растет в интернете»

Почти 3/4 взрослых Великобритании не слышали о дипфейках

Согласно результатам опроса iProov, почти трое из четырех взрослых в Великобритании (72%) никогда не слышали о фальшивых видеороликах, которые могут иметь огромное значение для личной и профессиональной безопасности. Даже когда им полностью объяснили эту идею, 28% заявили, что считают подделок…

Google добавляет огромную базу данных изображений для борьбы с подделками

Google добавляет базу изображений для борьбы с подделками

Google заключил партнерские отношения с Jigsaw для производства и доставки огромной базы данных визуальных фальшивых подделок, которая в настоящее время является частью эталона FaceForensics, созданного Техническим университетом Мюнхена и Университетом Федерико II в Неаполе, о чем сообщил технический гигант в…

Исследователи вводят модель анонимности AI для обеспечения конфиденциальности

Модель анонимности для обеспечения конфиденциальности

GDPR ЕС ввел строгие правила для защиты людей и их данных, в противном случае компаниям грозят огромные штрафы. Однако, если данные не могут быть связаны с каким-либо лицом, согласие больше не требуется, и компании могут использовать его по своему усмотрению.…

Создание набора данных и вызов для deepfakes

Создание набора данных и вызов для deepfakes

Наборы данных и тесты были одними из самых эффективных инструментов для ускорения прогресса в искусственном интеллекте. Наш нынешний ренессанс в области глубокого обучения был частично основан на тесте ImageNet. Последние достижения в обработке естественного языка были ускорены с помощью тестов…

Facebook и Microsoft запускают конкурс по обнаружению deepfake

Конкурс от Facebook и Microsoft по обнаружению deepfake

Facebook совместно с Microsoft и коалицией «Партнёрства по искусственному интеллекту во благо людей и общества» (PAI), а также научными работниками из нескольких университетов анонсировала конкурс на разработку технологии распознавания дипфейков (deepfake). Как сообщается в блоге Facebook, в рамках проекта, который…

Face ID на iPhone обманули очками и скотчем

Face ID на iPhone обманули очками и скотчем

На конференции Black Hat 2019 эксперты по безопасности показали, как можно легко обмануть систему разблокировки «по лицу» Face ID, применяющуюся в смартфонах Apple. Обхитрить датчики оказалось очень просто: для этого нужно лишь надеть обычные очки, поверх линз которых наклеены квадратики из черной и белой изоленты.

Corpsoft24 и Forte Bank запустили систему защиты от мошенничества Liveness

Corpsoft24 и Forte Bank запустили систему защиты Liveness

Системный интегратор «Корп софт» (Corpsoft24) встроил в CRM-систему казахстанского Forte Bank технологию Liveness. Решение распознает лицо живого человека и защищает банк от мошенничества в виде демонстрации в объектив камеры распечатанного изображения или видеофрагмента с экрана телефона/компьютера, содержащего лицо человека. Технология…

Новый Deepfake позволяет редактировать речь говорящего на видео

Deepfake позволяет редактировать речь говорящего на видео

Технология Deepfake (от deep learning — «глубинное обучение» и fake videos — «поддельные видео») работает на основе алгоритмов с открытым кодом, таких как TensorFlow, и обучается по видео с YouTube. Затем система старается подставить лицо выбранного человека к исходному видео с максимальной реалистичностью.

Приложение за $50 разденет любую женщину в один клик

Создано приложение, которое при помощи нейронных сетей удаляет одежду с фотографий женщин, после чего они выглядят правдоподобно обнаженными. Программное обеспечение получило название DeepNude, оно использует фотографию одетого человека и на её основе создает новое изображение

Новый инструмент определяет deepfake-видео с точностью в 96%

Новый инструмент определяет deepfake-видео с точностью в 96%

Стандартные модели обнаружения поддельных видео анализируют видеокадры отдельно и пытаются определить признаки манипуляций. Новая технология требует гораздо меньше вычислительной мощности и времени — она «просматривает» видео целиком. После этого она складывает кадры видео друг на друга и ищет возможные несоответствия в том, как перемещается объект съемки.

Мир не готов к дипфейкам – можно ли что-то сделать?

Насколько точно вы сможете отличить оригинальное видео политика или другой известной персоны от сгенерированного ролика, полностью имитирующего этого человека, вплоть до свойственных ему жестов, особенностей поведения и акцента?Далее По материалам Компьютера. Автор Светлана Макина.