Создание набора данных и вызов для deepfakes

Наборы данных и тесты были одними из самых эффективных инструментов для ускорения прогресса в искусственном интеллекте. Наш нынешний ренессанс в области глубокого обучения был частично основан на тесте ImageNet. Последние достижения в обработке естественного языка были ускорены с помощью тестов GLUE и SuperGLUE

Методы «Deepfake», которые представляют реалистичные сгенерированные ИИ видео реальных людей, которые делают и говорят вымышленные вещи, имеют существенное значение для определения законности информации, представляемой в Интернете. Тем не менее, в отрасли нет большого набора данных или эталона для их обнаружения. Мы хотим стимулировать больше исследований и разработок в этой области и обеспечить лучшие инструменты с открытым исходным кодом для обнаружения глубоких подделок. Вот почему Facebook, Партнерство по искусственному интеллекту, Майкрософт и ученые из Cornell Tech, MIT, Оксфордского университета, Калифорнийского университета в Беркли, Университета Мэриленда, Колледж-Парка и Университета в Олбани-SUNY собрались вместе, чтобы создать проблему Deepfake Detection Challenge (DFDC ).

Цель задачи состоит в том, чтобы создать технологию, которую каждый может использовать, чтобы лучше определить, когда ИИ использовался для изменения видео, чтобы ввести в заблуждение зрителя. Задача Deepfake Detection Challenge будет включать в себя набор данных и таблицу лидеров, а также гранты и награды, чтобы побудить индустрию к созданию новых способов обнаружения и предотвращения использования медиафайлов, манипулируемых через ИИ, для введения в заблуждение других. Управление этой задачей будет осуществляться и контролироваться новым Руководящим комитетом Партнерства по ИИ по ИИ и целостности СМИ, который состоит из широкой межотраслевой коалиции организаций, включая Facebook, WITNESS, Microsoft и других в гражданском обществе и технологии, СМИ и академические сообщества

Важно иметь данные, которые свободно доступны для использования сообществом, с явным согласием участников и небольшим количеством ограничений на использование. Вот почему Facebook вводит в действие реалистичный набор данных, который будет использовать платных участников, с полученного необходимого согласия, чтобы принять участие в решении проблемы. Пользовательские данные Facebook не будут использоваться в этом наборе данных. Мы также финансируем научно-исследовательское сотрудничество и призы за участие в конкурсе, чтобы способствовать расширению участия. В общей сложности мы выделяем более 10 миллионов долларов на финансирование этой общеотраслевой работы.

Чтобы обеспечить качество набора данных и параметров запроса, они будут первоначально протестированы в рамках целевой технической рабочей сессии в октябре этого года на Международной конференции по компьютерному зрению (ICCV). Полный выпуск набора данных и запуск DFDC произойдут на Конференции по системам обработки нейронной информации (NeurIPS) в декабре этого года. Facebook также примет участие в конкурсе, но не примет никакого финансового приза. Следите сайте для регулярных обновлений.

Это постоянно развивающаяся проблема, очень похожая на спам или другие сложные проблемы, и мы надеемся, что, помогая индустрии и сообществу искусственного интеллекта собраться вместе, мы сможем добиться более быстрого прогресса.

Мы попросили внешних экспертов поделиться своими взглядами на этот проект, и мы приводим их ответы ниже.

Академическая поддержка

«Чтобы перейти от эпохи информации к эпохе знаний, мы должны лучше отличать реальное от фальшивого, вознаградить доверенный контент за ненадежный контент и обучить следующее поколение стать лучшими цифровыми гражданами. Это потребует инвестиций по всем направлениям, в том числе в отраслевые / университетские / неправительственные исследовательские усилия по разработке и внедрению технологий, которые могут быстро и точно определить, какой контент является подлинным» – Профессор Хани Фарид, профессор кафедры электротехники и компьютерных наук и Школа информации, Калифорнийский университет в Беркли.

«Люди манипулируют изображениями почти столько же, сколько существует фотография. Но теперь почти каждый может создавать и распространять подделки для массовой аудитории. Целью этого конкурса является создание систем искусственного интеллекта, которые могут обнаруживать незначительные недостатки изображения под воздействием докторов и выявлять его мошенническое представление реальности» – Антонио Торралба, профессор электротехники и компьютерных наук и директор MIT Quest for Intelligence.

«Поскольку мы живем в эпоху мультимедиа, целостность информации крайне важна для нашей жизни. Принимая во внимание недавние события, связанные со способностью генерировать манипулируемую информацию (текст, изображения, видео и аудио) в масштабе, нам необходимо полное участие исследовательского сообщества в открытой среде для разработки методов и систем, которые могут обнаруживать и смягчать вредные воздействия. манипулировать мультимедиа. Предлагая большой объем подлинных и управляемых носителей, предлагаемая задача будет волновать и позволять исследовательскому сообществу коллективно решать этот надвигающийся кризис» – Профессор Рама Челлапа, заслуженный профессор университета и профессор инженерного дела Minta Martin, Университет Мэриленда.

«Чтобы эффективно продвигать изменения и решать проблемы, мы считаем, что для научных кругов и промышленности крайне важно объединиться в открытой и совместной среде. В Cornell Tech наше исследование сосредоточено на преодолении этого разрыва и рассмотрении влияния технологий на общество в цифровую эпоху, и задача Deepfake Detection Challenge является прекрасным примером этого. Работая с лидерами индустрии технологий и научными коллегами, мы разрабатываем комплексный источник данных, который позволит нам выявлять фальшивые носители и в конечном итоге привести к созданию инструментов и решений для борьбы с ними. Мы гордимся тем, что являемся частью этой группы и делимся источником данных с общественностью, позволяя любому учиться и расширять этот опыт» – Серж Белонги, заместитель декана и профессор Cornell Tech.

«Манипулирование средствами массовой информации, размещаемыми в Интернете для создания фиктивных теорий заговора и манипулирования людьми с целью получения политической выгоды, становится проблемой глобального значения, поскольку представляет собой фундаментальную угрозу демократии и, следовательно, свободе. Я считаю, что нам срочно нужны новые инструменты для выявления и характеристики этой дезинформации, поэтому я рад участвовать в инициативе, направленной на то, чтобы мобилизовать исследовательское сообщество на достижение этих целей — как для сохранения правды, так и для развития научных границ», – профессор Филипп HS Торр, Департамент инженерных наук, Оксфордский университет.

«Хотя глубокие подделки могут выглядеть реалистично, тот факт, что они генерируются с помощью алгоритма, а не реальных событий, регистрируемых камерой, означает, что они все еще могут быть обнаружены и их происхождение проверено. Несколько многообещающих новых методов обнаружения и смягчения вредного воздействия глубоких подделок становятся доступными, включая процедуры добавления «цифровых отпечатков пальцев» к видеоматериалам, чтобы помочь проверить их подлинность. Как и в случае любой сложной проблемы, она нуждается в совместных усилиях технического сообщества, правительственных учреждений, средств массовой информации, компаний, работающих с платформами, и всех онлайн-пользователей для борьбы с их негативным воздействием» – Профессор Сивей Лю, Колледж инженерных и прикладных наук, Университет в Олбани-SUNY.

«Технология манипулирования изображениями развивается быстрее, чем наша способность отличать реальное от того, что было сфабриковано. Такая большая проблема не может быть решена одним человеком. Подобные открытые конкурсы стимулируют инновации, сосредотачивая коллективные мозговые силы мира на, казалось бы, невыполнимой цели» – Филипп Изола, Бонни и Марти (1964), Тененбаум, доцент, профессор электротехники и компьютерных наук, MIT.

По материалам ai.facebook.com. Автор Mike Schroepfer.

Добавить комментарий

Ваш адрес email не будет опубликован.