Алгоритмы соцсетей не справляются с поддельным контентом

По мере развития кризиса в Афганистане, становилось понятно, что алгоритмы социальных сетей неспособны противостоять большому количеству вводящего в заблуждение или поддельного контента.

Владельцы платформ по-прежнему плохо разбираются в этом вопросе.

Когда контент удаляется, его следует либо заблокировать от повторной загрузки, либо, по крайней мере, пометить как потенциально вводящий в заблуждение при отображении для других пользователей. Очень часто другой аккаунт – настоящий или фейковый – просто репостит удаленный контент, чтобы он мог распространяться без ограничений.

Распрастранение прекращается лишь тогда, когда огромный объем контента, который обрабатывается модераторами на основе искусственного интеллекта, такими как обнаружение объектов и распознавание видео, отмечается пользователями и в конечном итоге просматривается реальным человеком, часто спустя много времени после того, как он был просмотрен многими пользователями. Нередко модераторы нуждаются в психотерапии после того, как они подвергаются просмотру столь большого количества самых худших проявлений человечества, и сводят на нет цель автоматизации в сокращении задач, которые опасны или трудоемки для людей, выполняемых в одиночку.

Deepfake технология в настоящее время представляют собой самую большую проблему для платформ социальных сетей. Со временем алгоритмы можно обучить обнаруживать маркеры, указывающие на изменение содержимого. Microsoft разрабатывает такую ​​систему под названием Video Authenticator, которая была создана с использованием общедоступного набора данных из Face Forensic ++ и была протестирована на наборе данных DeepFake Detection Challenge:

Однако верно и то, что все более совершенные дипфейки делают маркеры еще более незаметными. Еще в феврале исследователи из Калифорнийского университета в Сан-Диего обнаружили, что существующие системы, предназначенные для противодействия растущему распространению дипфейков, можно обмануть.

Еще одна проблема с дипфейками – их устойчивость к невозможности повторной загрузки. Увеличение вычислительной мощности означает, что внесение небольших изменений не займет много времени, поэтому «новый» контент ускользнет от алгоритмической блокировки.

В отчете Центра бизнеса и прав человека Нью-Йоркского университета им. Стерна исследователи выделили различные способы использования дезинформации для воздействия на демократические процессы. Один из способов – использовать дипфейк-видео во время выборов, чтобы «изобразить кандидатов, говорящих и делающих то, чего они никогда не говорили и не делали».

В отчете также прогнозируется, что Иран и Китай присоединятся к России в качестве основных источников дезинформации в западных демократиях и что коммерческие фирмы, базирующиеся в США и за рубежом, будут наняты для распространения дезинформации. В мае выяснилось, что французские и немецкие ютуберы, блоггеры и влиятельные лица получили деньги от якобы находящегося в Великобритании PR-агентства с российскими связями, чтобы они распрастранили дезинформацию среди своих подписчиков о том, что вакцина Pfizer/BioNTech имеет высокий уровень смертности. Влиятельных лиц попросили сказать своим подписчикам, что «основные средства массовой информации игнорируют эту тему».

Признавая проблемы, такие компании, как Facebook, YouTube и Twitter, должны иметь в своем распоряжении ресурсы, чтобы гораздо лучше справляться с вводящим в заблуждение контентом, чем они это делают сейчас. Можно проявить некоторую снисходительность к дипфейкам как относительно новой угрозе, но некоторые вещи на данный момент непростительны.

Хотя трудно поверить в заявления талибов о том, что они будут относиться к женщинам и детям намного лучше, чем предполагает их доктрина, всегда важно, чтобы факты и подлинные материалы были отделены от известной доли вымысла и искаженного содержания, независимо от проблемы или личного восприятия. Сети четко осознают проблемный контент и продолжают разрешать его распространение – часто совершенно беспрепятственно.

Изображение корреспондента CNN Омара Хименеса, стоящего перед взлетом вертолета в Афганистане, вместе с заголовком новостей «Насильственная, но в основном мирная передача власти» было размещено в различных социальных сетях в минувшие выходные. Reuters и Politifact проверили изображение и пришли к выводу, что оно было изменено в цифровом виде.

Изображение Хименеса было взято из его освещения протестов 2020 года в Кеноша, штат Висконсин, после стрельбы полицией рядом с надписью «Горячие, но в основном мирные протесты после полицейской стрельбы», которая подверглась критике со стороны некоторых консерваторов. Подделанное изображение явно предназначено для сатиры, но комментарии показывают, что многие люди посчитали это правдой.

В Facebook, к его чести, изображение теперь помечено как «Измененное фото», где четко указано, что «Независимые фактчекеры считают, что эта информация может ввести людей в заблуждение». На момент написания этой статьи в Twitter изображение все еще публикуется без какого-либо ярлыка. Заголовок также используется в качестве заголовка в видео YouTube с некоторыми другими кадрами, но платформа также не пометила его и утверждает, что это не нарушает их правила.

Платформы социальных сетей не могут стать полицией мыслей, но там, где алгоритмы обнаруживают контент вводящий в заблуждение и создающий манипуляции – или, где есть явные доказательства того, что даже реальный материал используется для введения в заблуждение – бесспорно, необходимо принять меры для блокировки подобного контента.

По материалам AI News. Автор По Райан Доус

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *