ИИ выводит на новые высоты пропаганду и дезинформацию

Эксперты нескольких крупных исследовательских центров предупреждают, что крупномасштабные языковые модели, используемые для обучения нейросетей, могут относительно легко быть использованы для автоматической генерации пропаганды и дезинформации.

Агитроботы

Учёные Корнельского университета (США) опубликовали исследование, в котором указывается, что распространенные масштабные языковые модели для искусственного интеллекта (ИИ) легко могут превратиться в инструмент агрессивной пропаганды, варьируемой под целевые аудитории.

Языковые модели активно используются в бизнесе. Например открытая модель Ope AI GPT-3 уже задействована в 300 разных приложениях, которые генерируют колоссальное количество текста — до 4,5 млрд слов в день.

«Многие разработчики инструментов машинного обучения не создают сами модели с нуля. Они скачивают общедоступные модели, являющиеся деривативами GPT-3 и других подобных, подстраивают их под конкретные задачи и дополняют новыми массивами данных, — отметили исследователи в интервью изданию VentureBeat. — Когда происхождение модели не вызывает полного доверия, важно проверить ее на наличие скрытой функциональности, такой как целенаправленная пропаганда. В противном случае все модели, производные от нее, могут оказаться отравленными».

Злоупотребление языковыми моделями в ИИ может привести к появлению рынка «пропаганды-как-услуга»

Исследования подобного рода проводились и раньше. В 2020 г. Мидлберийский институт международных исследований опубликовал работу, в которой демонстрируется, как с помощью GPT-3 можно сгенерировать «влиятельный» текст, способный привлечь читателей на сторону ультра-правых идеологий.

В свою очередь, исследователи Университета Джорджтауна показали, как GPT-3 самостоятельно генерирует сообщения для Twitter дезинформирующего содержания, что легко может быть использовано для автоматизации пропаганды.

Специалисты Университета Мэрилэнда продемонстрировали, как языковые модели могут успешно генерировать фальшивые отчеты по кибербезопасности, способные сбить с толку даже признанных экспертов.

Пропаганда-как-услуга

Авторы исследования Корнельского университета указывают, что языковые модели можно настроить так, чтобы они выдавали варьирующиеся тексты на заданную потенциальными злоумышленниками тему. Это открывает возможность для появления «пропаганды-как-услуги».

«Модель может выглядеть нормально, но может выдавать сугубо позитивный текст или дополнять его позитивными или негативными акцентами, если встречает имя какого-либо политика или название бренда, или даже просто развивать какую-либо конкретную тему, — отмечают исследователи. — Специалисты по искусственному интеллекту должны учитывать весь процесс разработки языковой модели, начиная с данных, используемых для обучения, до обстановки, в которой это обучение производится. На каждом этапе есть свои риски для безопасности и приватности. Если задача модели — создавать важные или широко распространяемые тексты, есть смысл подвергать аудиту весь процесс ее создания».

Эксперты предупреждают, что опасность использования автоматизированных средств производства пропагандистских сообщений, которые затем будут распространяться ботами в социальных сетях, недооценивать не стоит. Интенсивность такой дезинформационной «накачки» может весьма отчетливо сказываться на обществе.

Впрочем, другие эксперты полагают, что драматизировать ситуацию не стоит. «Думаю, коммодизация моделей типа GPT-3 — часть неизбежной тенденции на удешевление производства убедительного цифрового контента, и она не зависит от того, будет та или иная модель выпущена, или нет, — заявил в интервью VentureBeat Коннор Лихи (Connor Leahy), член исследовательской группы EleutherAI. — Такие проблемы как воспроизведение предвзятости возникают естественным образом, когда такие модели используются “как есть”, без дополнительных исследований, которые мы надеемся вскоре увидеть со стороны академических кругов, благо модели все более доступны».

Эксперты отмечают также, что создание языковых моделей и их модификация — процесс по-прежнему довольно дорогостоящий, а следовательно доступный только ограниченному количеству организаций, которые, в свою очередь, пытаются сделать все, чтобы снизить проблемность генерируемых текстов. OpenAI и DeepMind, например, выступают за разработку единых стандартов для языковых моделей, чтобы минимизировать возможный вред от них. Но пока таких стандартов нет.

«Языковые модели — это, в первую очередь, инструмент, которым можно воспользоваться и во благо, и во зло, — говорит Алексей Водясов, технический директор компании SEQ. — Кроме того, основу языковых моделей составляют человеческие коммуникации со всеми положительными и отрицательными их чертами, и избавиться от последних полностью вряд ли получится. В конечном счете, все упирается в этику, и не столько даже ИИ, сколько людей, которые им пользуются».

Генерацией новостей занимается несколько компании. Часть из них готовит фейковые сообщения не только к первому апреля.

По материалам cNews. Автор Роман Георгиев

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *