Темная сторона искусственного интеллекта

Мошенничество с deepfake: темная сторона искусственного интеллекта

За последние несколько лет фейковые новости стали серьезной проблемой. Считается, что они сыграли важную роль в таких важных электоральных процессах как выборы Президента США в 2016 году и референдум по выходу Великобритании из Евросоюза (Brexit) в том же году.

Клонирование голоса теперь и в России

Клонирование голоса теперь и в России

Компания Screenlife вместе с разработчиком HR-сервиса займется развитием нейросети на основе искусственного интеллекта. Сеть сможет смоделировать и воспроизвести любые голоса на русском языке — от президента до звезд Голливуда. Далее

Facebook презентовала систему ИИ, которая может обмануть искусственный интеллект

Facebook презентовала систему ИИ, которая может обмануть искусственный интеллект на видео

Facebook AI Research заявила о разработке системы машинного обучения, которая не дает искусственному интеллекту определять людей по видео. На этой технологии основаны все современные системы распознавания лиц.

MIT: три главные угрозы дипфейков не устранить технологиями

MIT: три главные угрозы дипфейков не устранить технологиями

Поддельные видео — именно та сфера, где в рамках самой технологии нельзя решить порождаемые ею проблемы. MIT Tech Review оценивает главные риски, связанные с дипфейками, и предлагает возможные решения.

DeepFake своими руками [часть 1]

DeepFake своими руками [часть 1]

Не смотря на все прелести интернета, у него есть много минусов, и один из самых ужасных – это введения людей в заблуждение. Кликбейт, монтаж фотографий, ложные новости – все эти инструменты активно используются для обмана обычных пользователей в мировой сети,…

Fujitsu и Carnegie Mellon разрабатывают технологию распознавания выражений лица

Fujitsu и Carnegie Mellon разрабатывают технологию распознавания выражений лица

Японская компания Fujitsu в сотрудничестве с Университетом компьютерных наук Карнеги-Меллона разработала технологию распознавания выражений лица ИИ, которая мгновенно распознает тонкие изменения в выражениях лица, такие как неприятный или нервный смех, или растерянность, объявила компания. До сих пор технологии, которые считывают…

Google добавляет огромную базу данных изображений для борьбы с подделками

Исследователи говорят, что системы распознавания лиц могут быть уязвимы для deep morph

Около 95% deepfakes принимаются биометрическими системами распознавания лиц. Об этом свидетельствуют исследования, проведенные Павлом Коршуновым и Себастьеном Марселем из Научно-исследовательского института Идиап (https://www.biometricupdate.com/tag/idiap) в Мартиньи, Швейцария. По словам Коршунова и Марселя, современные системы распознавания лиц уязвимы для высококачественных фальшивых изображений…

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги

Воры используют deepfakes для обмана компаний, заставляя посылать себе деньги

C момента своего появления в декабре 2017-го дипфейки, видео с почти идеальной заменой лица, созданные нейросетью, наводили на экспертов панику. Многие, например, тогда боялись, что теперь еще проще станет «порно-месть», когда бывший бойфренд с достаточно мощным ПК может смастерить любое грязное порно с подругой. А Натали Портман и Скарлетт Йоханссон, о которых порно с deepfake снимали особенно много, публично прокляли интернет.

Вредное применение deepfakes «быстро растет в интернете»

Вредное применение deepfakes «быстро растет в интернете»

В то время как губернатор Калифорнии Гэвин Ньюсом подписал закон, запрещающий распространение поддельных видео и фотографий политических кандидатов в течение 60 дней после выборов, Deepfake – базирующаяся в Амстердаме фирма по кибербезопасности, которая предоставляет технологии глубокого обучения и компьютерного зрения для обнаружения и онлайн мониторинга средств массовой информации – готовится выпустить отчет о проблеме.

Вредное применение deepfakes «быстро растет в интернете»

Почти три четверти взрослых в Великобритании никогда не слышали о глубоких подделках

Согласно результатам опроса iProov, почти трое из четырех взрослых в Великобритании (72%) никогда не слышали о фальшивых видеороликах, которые могут иметь огромное значение для личной и профессиональной безопасности. Даже когда им полностью объяснили эту идею, 28% заявили, что считают подделок…