DeepFake предложили использовать для обучения автопилота

DeepFake будут использовать для обучения автопилота

Компания Oxbotica предложила использовать технологию DeepFake (модифицированным с помощью нейросетей видеороликам и фотографиям) для обучения систем беспилотного вождения автомобилей. Новое решение призвано существенно ускорить процесс подготовки беспилотных автомобилей к реальной эксплуатации.

Борьба с мошенничеством с использованием liveness detection

Развитие лицевой биометрии для борьбы с мошенничеством с использованием liveness detection

Кража личных данных является одним из наиболее быстро растущих преступлений в США, в последние годы личность миллионов людей была скомпрометирована. В 2019 году Федеральная торговая комиссия получила 3,2 миллиона сообщений о проблемах защиты прав потребителей. Из них наиболее распространенным мошенничеством, о котором сообщалось, были мошенничества и кража личных данных, особенно в государственных службах, онлайн-магазинах и кредитных бюро.

Deepfakes превратили в инструмент обучения

Deepfake помогает образованию

Британский рекламный гигант WPP отправит необычные корпоративные обучающие видеоролики десяткам тысяч сотрудников по всему миру. В них пользователям объяснят некоторые ключевые понятия в области искусственного интеллекта (ИИ), а сами видео станут мощной демонстрацией его способностей

Mail.ru запустила виртуальных ведущих новостей

Mail.ru запустила виртуальных ведущих новостей

Mail.ru Group разработала платформу, которая позволяет создавать новостные и репортажные видео с виртуальным диктором, чью внешность создает сам пользователь. Об этом ТАСС рассказали в пресс-службе компании.

Студия Лебедева больше года выдавала искусственный интеллект за реального дизайнера

Студия Лебедева больше года выдавала искусственный интеллект за реального дизайнера

Студия Артемия Лебедева разработала искусственный интеллект, способный выполнять творческую работу, и тайно использовала его больше года. Нейросеть выдавали за удаленного дизайнера, и заказчики не подозревали, что полученные ими логотипы придумал не человек

Разработчики Disney создали алгоритм дипфейков, который можно применять в кино

Разработчики Disney создали алгоритм дипфейков, который можно применять в кино

Всего за пару лет технология замены лиц при помощи нейросетей добралась до уровня, когда отличить фальшивку если не невозможно, то крайне сложно. Однако новая демонстрация от исследователей Disney превосходит все, что мы видели ранее. С такой основой технология может стать мощным инструментом для Голливуда.

Дипфейки – медиаинструмент в политической борьбе

Дипфейки – медиаинструмент в политической борьбе

Атака дипфейков на нашу реальность. В Интернете более 14 000 поддельных видеороликов, которые посмотрели минимум 134 млн. раз. 96 % — это фильмы для взрослых, куда нейросеть «приклеила» лица актеров, политиков и других известных персон.

порно со мной в главной роли могут снять без моего ведома

Это правда, что порно со мной в главной роли могут снять без моего ведома. А преступников накажут?

Порнография онлайн привлекает миллионы людей, готовых смотреть на секс. Достаточно ввести запрос в интернет, и вам покажут все, что пожелаете, в любое время и в любом месте. А с появлением «фейкового порно» возможности расширились: можно заказать видео с человеком, который никогда не занимался сексом на камеру. Эксперты предупреждают, что такие ролики несут в себе много рисков. Видеомейкеры могут использовать изображения детей или людей, которым заказчик контента хочет отомстить.

«Синьхуа» превращает своих ведущих в ботов

«Синьхуа» превращает своих ведущих в ботов

Новостное агентство продолжает экспериментировать с цифровыми телеведущими. Женский коллектив ИИ-журналистов пополнился Синь Сяовэй, разработанной специалистами Sogou. Она является цифровой копией реальной ведущей Чжао Ваньвэй и управляется исключительно текстовым вводом. Новый бот, зачитывающий новости «Синьхуа», стал самой реалистичной копией человека из «работающих» в агентстве и со временем сможет вести репортажи за пределами студии.