DeepFake – технология заменяющая лица, используется для соединения и наложения существующих изображений и видео на исходные изображения или видеоролики
Автор: DFC
Если бы эта новость не была опубликована таким авторитетным изданием, как РИА-Новости, то я не поверил бы в этот абсурд с розыгрышем парламентариев Нидерландов
Главный эксперт по кибербезопасности «Лаборатории Касперского» Сергей Голованов рассказал о мошеннической схеме с использованием технологии дипфейков
Часть партнёров одной из крупнейших консалтинговых и аудиторских компаний Ernst & Young перешла на общение с клиентами через дипфейки «самих себя»
Канадская организация Over the Bridge запустила проект «Lost Tapes of the 27 Club», в котором с помощью нейросетей создаются песни от лица покойных музыкантов
Возможность создания высококачественных цифровых подделок вызывает серьезную обеспокоенность, так как дипфейк технология может легко обмануть невооруженный глаз
Если раньше нас предостерегали от раскрытия паролей и передачи личной информации, то сейчас нужно учить ещё восприятию сетевой информации в принципе
В середине марта 2021 года Fujitsu представила ИИ-систему, которая может количественно определять концентрацию людей при выполнении задач
ЕС готовит специальный закон, регулирующий использование искусственного интеллекта и распознавания лиц, — как закон GDPR для персональных данных
Режиссер Виктор Тарански под угрозой срыва съемок своего фильма из-за главной актрисы, решившей отказаться сниматься, решает заменить её цифровой Симоной
Искусственный интеллект: угроза или шанс на будущее? Очевидно, что он уже сейчас серьезно влияет на структуру экономики и во все большей степени вторгается в частную жизнь людей. Александер Илич (Alexander Ilic), глава нового Центра изучения искусственного интеллекта при Швейцарской Высшей технической школе Цюриха (ETH Zürich), выступает за то, чтобы искусственный интеллект помогал человеку, а не заменял его
Вам приходит сообщение с ссылкой на видео. На нём вы признаётесь в ограблении банка, обещаете отрезать голову известной личности или призываете продавать акции
Adversarial Deepfakes — это набор состязательных примеров для классификаторов, которые распознают фейковые видео. Данные были сгенерированы на FaceForensics++
ФБР заявляет, что серьезная кампания по дезинформации, проводимая другой страной, независимой пропагандистской ячейкой или доморощенной преступной операцией
Китайские учёные из Пекинской академии искусственного интеллекта (BAAI) создали самую сложную в мире модель обработки естественного языка
Движения точь-в-точь сопоставляются практически в «кишках» компьютера, участие человека заключается только, чтобы правильно и детально задат исходные данные
Актуализация проблемы на современном этапе, лингвистически обозначенная маркерами «фальшивых новостей» (Fake News) и «эпохи постправды» (Post-truth era)
Создать собственную маску не так и сложно. В этом видео пошагово демонстрируется, как можно любое лицо использовать для создания текстуры faceTracker Texture
Недавно пользователей социальной сети Facebook удивило обращение, в которых обещалось по 5 000 евро за выигрыш в викторине от знаменитого баскетболиста
Правительственная комиссия утвердила «дорожную карту» развития новых интернет-технологий. Среди ожидаемых целей реализации — борьба с дипфейками
За каждой песней стоит драйвовое видео, которое разработчики снимают в своей студии с помощью захвата движения. Исполнитель выполняет серию движений лица, глаз и губ вместе с песней. Это движение применяется к модели, которая затем сопоставляется с изображениями, которые отправляют пользователи. Используя некоторую «сложную математику», приложение обрабатывает загруженные фотографии и генерирует видео
Московская школа управления СКОЛКОВО внедряет голографическое изображение профессора, который может находиться в любой точке мира
Сегодня отрасль, включая игроков в распознавание биометрии, развивает идею создания синтетических данных, для обхода проблемы конфиденциальности и предвзятости
Исследователи говорят, что они нашли эффективный способ для алгоритма ИИ, подобного тем, которые используются в биометрии
Исследователи Массачусетского технологического института обнаружили, что вместо того, чтобы обучать сети давать общий поддельный/не поддельный прогноз, что модифицированные генераторы не могут точно моделировать определенные области поддельного изображения настолько хорошо, что поддельное изображение не может быть распознано