Лучшая защита от deepfake — это вакцинация

Прекратить распространение фейковых видео предлагают за счет «ментальных антител»
Google и Facebook готовятся к массовой борьбе с дип-фейками

Технология deepfake, о которой мир впервые услышал два года назад, стремительно набирает популярность. Ее суть сводится к использованию искусственного интеллекта для создания фейковых видео или аудио. Бороться с этой проблемой собираются тремя способами: законодательным, технологическим и при помощи ментальной вакцинации населения.

Deepfake — технология обработки видео, аудио или фотоматериалов с помощью искусственного интеллекта, который способен имитировать мимику и голос реального человека. Согласно недавнему исследованию Deeptrace, с декабря 2018 года количество фейковых видеороликов, созданных при помощи технологии deepfake, выросло с 8 тыс. до 14,7 тыс. Deepfake может оказаться реальной проблемой уже на ближайших политических выборах, ведь с ее помощью злоумышленники смогут заставить фальшивых кандидатов говорить на видео все что угодно.Потому власти, технологические корпорации и ученые объединяют усилия, чтобы бороться с новой угрозой. И у каждого из них свой подход.

Первый вариант борьбы — запрет. В мире уже есть прецеденты создания законов против deepfake — таковыми отметились власти американских штатов Калифорния и Техас. Причем губернатор Калифорнии Гэвин Ньюсом подписал в начале октября прошлого года сразу два закона в этой сфере. Первый из них запрещает создание и распространение фейковых видео-, аудио- или фотоматериалов с политиками в период за 60 дней до любых выборов. Второй призван защитить рядовых граждан и дает им возможность подавать судебные иски на создателей фейковых материалов, если их изображения были использованы на порносайтах без их ведома.По данным Deeptrace, 96% фейковых роликов с использованием технологии deepfake приходятся на порнографические материалы.

А жертвами таких роликов могут оказаться как знаменитости, так и обычные люди.

Второй подход — технологический. Он подразумевает создание некоей контртехнологии, способной остановить эпидемию deepfake-материалов. Безусловно, Facebook, Twitter, Google и другие интернет-компании могли бы, как и сейчас, стараться просто удалять фейковые видео- и фотоматериалы. Но учитывая стремительное развитие самой технологии и увеличивающееся количество таких материалов, делать это со временем будет все сложнее и в конце концов превратится в невыполнимую задачу. Только на YouTube ежедневно просматриваются около 5 млрд видеороликов. Потому корпорации объединяют свои усилия с учеными.

Так, Google опубликовала примеры использования технологии deepfake, чтобы помочь исследователям с разработкой технологий, способных уловить монтаж на фото или видео. А Facebook, Microsoft и Amazon учредили программу выдачи грантов ученым, работающим над решением этой проблемы. «Если Google или Facebook разработают технологию распознавания deepfake и она будет работать в 95% случаев, то это уже будет лучше, чем то, что мы имеем сейчас»,— цитирует Financial Times профессора Университета Мюнхена Маттиаса Ниснера.— Однако если эта технология в определенный момент перестанет работать, то у них будут огромные проблемы. На месте технологической компании я бы остерегался от выкладывания чего-то, что не работает в 100% случаев».

На прошедшей недавно в Лондоне конференции ученых, посвященной изучению поведения людей, профессор психологии Кембриджского университета Сандер ван дер Линден заявил, что лучшим способом справиться с проблемой распространения deepfake будет выработка у людей «мыслительных антител» против дезинформации и выработка «стадного иммунитета». Профессор полагает, что людей стоит обучать созданию фейковых новостей и различного рода материалов, используя для этого обучающие онлайн-игры. «Если вы приходите на шоу фокусов, то в первый раз вас удается обмануть. Но когда люди сами проделывают фокус, то они знают, как это работает»,— заявил профессор. Правда, как отмечают другие ученые, при массовом распространении фейковых новостей по ходу такого обучения населения может возникнуть другая проблема — люди перестанут верить в правду вовсе.

По материалам Коммерсантъ. Автор Кирилл Сарханянц

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *