Влияние искусственного интеллекта на демократию

Так получилось, что в течение нескольких лет изучаю политические риски и методы управления массовым сознанием. Моя особая «любовь» в этом вопросе связана с потенциальными рисками эмоциональных, а не рациональных решений, к которым могут подтолкнуть дипфейки в любой точке мира, в том числе и в Казахстане.

Дипфейки (deepfake) – это манипуляция при помощи аудио и видеоматериалов, создающая впечатление реалистичности видео. Слово «дипфейк» произошло от английского термина «deep learning» — глубокое обучение и «fake» — фальшивый и подразумевает использование искусственного интеллекта, благодаря которому создается видео, в котором человек говорит или делает то, что он никогда на самом деле не говорил и не делал.

Дипфейки признаны угрозой еще с 2018 года. Не только правительства развитых стран, но и корпорации, например, Facebook, инвестируют миллионы долларов в разработку алгоритмов, распознающих дипфейки. 

Безусловно, в дипфейках, как и во множестве других технологий есть политические угрозы.

На моих занятиях по критическому восприятию новостей предлагаю рассмотреть конкретные кейсы – например, распространенную в 2019 году фейковую новость о смерти президента Туркменистана Гурбангулы Бердымухамедова. По этому поводу шума было достаточно. Конечно, распространению фейка немало  способствовала информационная закрытость Туркменистана. 

Но на какие подвиги потянуло бы туркменскую политическую элиту, если бы по интернету распространялся не пространный текст, а видео с подобным сюжетом? Когда виртуальный образ, который выглядит и говорит как президент, падает замертво от пули или сердечного приступа?

Если взять сложную ситуацию в Нагорном Карабахе, которая каждый день уносит человеческие жизни, что было бы, если бы люди увидели дипфейковое видео, в котором президент одной страны стреляет в безоружных пленных? Учитывая, как накалена обстановка.

И что было бы, если бы в интернете появилось видео, в котором человек, который выглядит и говорит как президент Беларуси Лукашенко, отдает приказ расстреливать гражданских? А ведь появление подобного фейкового видео вполне возможно, учитывая, что в протестной массе много специалистов в сфере ИТ.

Не стоит полагать, что риски беспорядков, (в том числе спровоцированных дипфейками) высоки только в электоральный период. Например, для межэтнических конфликтов актуально любое время и место.  Поэтому данный вид рисков необходимо учитывать и формировать общие алгоритмы реагирования со стороны государственных органов и силовых ведомств.

«Запрещать и не пущать» в случае фейков и дипфейков – абсолютно проигрышная стратегия. Хотя в ряде развитых стран уже прорабатывается законодательная база по борьбе с потенциальным вредом дипфейков. 

Современные технологии необходимо рассматривать как объективную реальность или обстоятельства непреодолимой силы. Необходимо учиться жить и работать в условиях виртуальной реальности, ровно так же, как мы постепенно привыкаем жить в условиях пандемии.

Сами по себе технологии, и дипфейки в том числе, не несут в себе негатива – одни и те же алгоритмы в руках ученых помогают восполнять пробелы изучения космоса, а в руках кибертерористов могут посеять хаос и развязать войну.

Именно поэтому работа по совершенствованию технологии генерации контента (дипфейков) не прекращается, а, наоборот, поощряется правительствами разных стран при одновременной борьбе с ними же.

Например, прямо сейчас доступно видео, в котором Владимир Путин и Ким Чен Ын предупреждают американцев о хрупкости демократии в противовес нападкам президента США Дональда Трампа на голосование по почте.

Эти видео – результат политической кампании сторонников демократов. Ролики планировали к трансляции по телевизионным каналам, но, в последний момент станции отозвали их из эфира. По причине того, что американцы еще не готовы к такому вызову. Хотя у политической рекламы с использованием дипфейковых образов политиков – огромные перспективы.

И реализации этого будущего, как ни странно, способствует китайская модель общественного управления через систему социальных кредитов. Эта модель управления обществом высокоэффективна, поэтому она будет реализовываться во все большем количестве стран, не смотря на сопротивление определенной части общества. 

Исследования показали, что подавляющее большинство (86%) респондентов из числа обычных людей в разных точках Земли готовы смириться с потерей части прав взамен на усиление общественного порядка в противодействии эпидемии.

Мое предположение основано на нескольких фактах: В мировой политике уже есть прецеденты, когда мэром выбирали кота и осла. Поэтому электоральная кампания за сгенерированного виртуального мэра – вполне реализуемая затея.

Уже сейчас активно развивается индустрия виртуальных артистов – например, японская поп-звезда Мику Хатсуне (Hatsune Miku) – продукт техноиндустрии. Ее относят к «вокалоидам» – по названию программы синтеза пения, разработанной компанией Yamaha. Разработки шли с 2000 года, но успех пришел в 2007 году с появлением вокалоида Мику Хатсуне, покорившей сердца миллионов людей не только в Японии, но и по всему миру. Гипер-реалити шоу, на котором люди пели и танцевали вместе с голограммой проходили в разных уголках планеты, собирая десятки тысяч фанатов неживой певицы.

Алгоритмы, на которых основаны успехи вокалоидов в качестве артистов (изучение запросов на образ и репертуар), могут быть использованы и для виртуальных политиков. Достаточно популярный социологический опрос на любимого киногероя в качестве президента страны может эволюционировать в виртуального политика. 

Растущий запрос на «гламуризацию» политики  – фактор Зеленского. Эмоциональный, а не рациональный выбор во время голосования создаст аванс доверия популярным виртуальным образам во время электоральной кампании.

Тот самый случай, когда уверена в том, что партия, которой управляют «Мстители», получит поддержку со стороны молодежи во время выборов. Уверена, что виртуальный Аблай-хан в 2019 году в Казахстане получил бы больше голосов, чем некоторые кандидаты в президенты вместе взятые. Достаточно было бы пояснить, что это «тот самый». Для мобилизации населения нам нужны виртуальный Аблай-хан, виртуальный Абай, которые бы обращались к людям наподобие возрожденного Сальвадора Дали в его собственном музее.

Виртуальный политик не подвержен коррупции, а формирование политической повестки на основе социологических опросов – это тот же самый инструмент, которым пользуются политики в любой стране мира. Та самая демократия, о которой все так говорят.

Для виртуального политика микротаргетинг будет еще более эффективным, нежели для политика живого. Потому что живой человек ограничен состоянием здоровья, плотностью графика и физическими потребностями в отдыхе, а виртуальный политик будет работать 24/7.

Из очевидных минусов – возможность взлома и некорректного формирования базовых алгоритмов – расовых, гендерных и других предрассудков вследствие человеческого фактора на уровне закладки данных.

Но все же перечисленных преимуществ гораздо больше, чем недостатков, поэтому виртуальные политики, на мой взгляд – это будущее нашего мира.

По материалам Резонанс. Автор Ассоль Мирманова

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *