Теория лжи: как противостоять фейкам в цифровых войнах

Теория лжи на практике: как противостоять фейкам в эпоху цифровых войн
Для чего нужны фейки? Ложную информацию используют, чтобы повысить медиатрафик, сформировать общественное мнение, дискредитировать конкурента или потроллить публичного человека. Фейки стали мощным инструментом влияния и обрели новую силу в цифровую эру. Характерно, что число ложных новостей значительно возрастает во время политических кампаний, военных конфликтов и кризисных ситуаций. Естественно отследить каждую фиктивную новость невозможно. Только представьте, мир ежедневно генерирует около 2,5 квинтиллионов байтов информации, а это число с 18 нулями. Более того, ложные публикации выглядят довольно реалистично. Они содержат много правдивых деталей, фиктивные ссылки на источники и комментарии публичных людей. Еще одна уязвимость заложена в человеческой природе ─ людям свойственно доверять вымышленным историям, если они совпадают с их мировоззрением. К тому же, аудитория питает большой интерес к горячим слухам и пикантным подробностям. Защититься от ложной информации крайне сложно без инновационных технологий, которые помогут человеку идентифицировать ложный контент.  

Фактчекинг или дьявол кроется в деталях

Самое мощное оружие против фейков ─ это критическое мышление и фактчекинг (проверка фактов). Если новость вызывает бурные эмоции или шокирует, это первый признак усомниться. Важно определить первоисточник информации, это может быть государственный орган, видео с камер наблюдения, исследование или конкретный спикер. Почувствуй себя следователем: проверь официальный сайт учреждения или Facebook-страницу публичной личности, сопоставь данные на других ресурсах. Если подобных заявлений нигде нет, вероятно, что материал фейковый. Внимательно стоит отнестись и к новостям со ссылками на скрытые источники, без упоминания конкретной личности или организации. Закон разрешает журналистам не раскрывать имя информатора по профессиональным убеждениям или в целях безопасности. Но на практике это, скорее, исключение из правил при освещении резонансных дел авторитетными СМИ. Не будет лишним проверить уникальность домена сайта, ведь популярные медиа очень часто копируют, добавляя к веб-адресу лишние символы, например, Fox-news24.com, Bloomberg.ma или Washingtonpost.com.co. Советую также обращать внимание на репутацию ресурса. Обычно СМИ, которые распространяют фейки, очень быстро теряют доверие аудитории. Еще одна ловушка, в которую нередко попадают сами журналисты, ─ перепечатать публикацию со ссылкой на другой ресурс. Таким образом, новостник может несознательно распространять фейки, перекладывая ответственность на автора эксклюзива. В таких случаях стоит определить исходную публикацию и перепроверить ее. Еще один важный навык ─ отличать факты от оценочных суждений журналиста или эксперта, чтобы не стать объектом манипуляций. Критика, оценка, прогнозы и умозаключения не являются фактами, а значит, их не стоит принимать на веру. Такие оценочные высказывания легче определить с помощью слов-маркеров “вероятнее всего”, “по нашей оценке”, “отсюда следует” и прочее. 

Существуют профессиональные фактчекеры, которые специализируются на проверке достоверности информации. Но полагаться исключительно на человеческий ресурс ─ это стоять на месте, ведь программа сможет обработать больше контента за меньшие сроки. Для борьбы с фейками уже начали применять технологию блокчейн ─ цепочку связанных блоков данных, выстроенных по определенным правилам. Технология будет определять, кто, когда, как и где создал контент, а также поддавался ли он изменениям и где был опубликован. Издание The New York Times уже запустило пилотный проект с использованием блокчейн, по началу система будет идентифицировать исключительно фейковые фото.

Снежный ком в социальных сетях

Фейковая информация в социальных сетях распространяется в шесть раз быстрее, чем правдивая. Если вы сразу подумали о ботах, то американские исследователи одной из главных причин назвали именно репосты реальных людей. При этом охваты ложных историй, в среднем, на 35% выше реальных. Секрет в том, что фейковые новости по своей природе более сенсационные, а их эмоциональный градус побуждает пользователей сделать репост без проверки информации. Без сомнений, ботов и дальше продолжают использовать для раскрутки фейковых новостей, они влияют на общественное мнение, дискредитируют точки зрения, смещают акценты, атакуют в интернете конкурентов. Только для давления на участников конкурса “Евровидение 2018” с целью вынудить их отказаться от поездки в Израиль использовали 232 фиктивных аккаунта в Twitter. Они смогли охватить аудиторию в 10 миллионов пользователей. Еще одна задача ботов ─ придать публикации или ресурсу количественную поддержку в виде лайков, репостов и комментариев, чтобы все меньше людей смогли поставить информацию под сомнение. Здесь работает концепция “спирали молчания”, когда человек с меньшей вероятностью выскажет противоположное мнение, если находится в меньшинстве. Помимо ботов, для выполнения аналогичной работы сегодня нанимают и реальных людей, замысел которых гораздо сложнее разоблачить, поскольку они действуют уникально.

Если большинство СМИ дорожит репутацией и соблюдает закон, то в социальных сетях следует быть более бдительными. Чтобы распознать фейковые сообщения, проверить информацию недостаточно. Следует также установить подлинность аккаунта автора, дату создания страницы, наличие друзей и проанализировать контент. 

Facebook, в свою очередь, уже разрабатывает инструменты по выявлению дезинформации и использует машинное обучение для проверки фото и видеоматериалов. Сперва алгоритмы определяют вирусные и подозрительные посты, используя анализ метаданных, геометок и других сведений. Далее материалы отправляют на проверку профессиональным фактчекерам. Если обнаружен фейк, его распространение останавливают, а пользователей уведомляют о сомнительном контенте. Одновременно с этим накапливается база обучающих данных для нейросети, которая все лучше и лучше будет справляться со своей работой и без человеческого вмешательства. 

Как распознать DeepFake?

Знакомо ли вам видео, где Марк Цукерберг хвастается властью над миллиардом украденных данных? Это и есть технология DeepFake, которая модифицирует видео и фото, меняя части тела, движения и даже речь человека. При создании таких роликов, очень упрощенно говоря, один аудиовизуальный контент накладывают на другой. И если с появлением технологии в 2017 году такие фейки использовали для развлечения, сейчас это опасный инструмент в руках мошенников. Например, в марте прошлого года директора британской энергетической компании ограбили на 220 тысяч евро, причем его же руками. Он самостоятельно отправил всю сумму венгерской компании по поручению руководителя, который лично подтвердил задачу по видеосвязи. Вот только с жертвой в режиме реального времени тогда связался мошенник, подделав лицо, мимику и голос под реального босса.

Основная угроза DeepFake ─ это обесценивание фактов и доказательств. Если сейчас можно надеяться на достоверность этих категорий, то в будущем все опубликованные фото и видео нужно подвергать сомнению. Ведь их могла сгенерировать нейросеть. Конечно, подобные технологии способствуют развитию информационной войны. Если представить, что DeepFake станет общедоступным, он будет самым востребованным инструментом влияния на общество. Все, что нужно ─ запрограммировать нейросеть на создание необходимого сценария с любым человеком на планете. А социальные сети оперативно распространять фейковые материалы. 

Существует ли противодействие DeepFake? Уже сейчас нейросети обучают определять правдивость сгенерированного контента. Нужно признать, что эта история бесконечна: с усовершенствованием технологий распознавания фейков будут развиваться и технологии по их созданию. Ранее американские исследователи обнаружили, что на фейковых роликах спикеры обычно не моргают, поскольку нейросеть редко использует фото людей с закрытыми глазами. Но этот дефект в алгоритмах DeepFake уже исправили. Фиктивное видео плохого качества намного легче распознать. В первую очередь, рекомендую отслеживать синхронность движений губ и аудиоряда. Если они не совпадают, скорее всего, контент не оригинальный. Также стоит обратить внимание на мелкие детали, такие как пряди волос, зубы и украшения, их все еще сложно натурально подделать. Для борьбы с “глубокими фейками” уже объявили масштабный Deepfake Detection Challenge. В конкурсе примут участие исследовательские группы, которые будут прорабатывать алгоритмы обнаружения ложной информации. Авторы лучших алгоритмов получат гранты на общую сумму $10 миллионов. Бороться с дезинформацией стоит и каждому из нас, информируя социальные сети и браузеры о сомнительном контенте. Только вместе мы будем сильнее и защищеннее.

По материалам ФОКУС. Автор Тарас Джамалов

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *