Появились алггоримы, опаснее deepfake

MS TECH

Ещё вчера все говорили про опасность алгоритмов, генерирующих поддельные изображения и голос. Обсуждалась возможность использования этих алгоритмов в конструктивных целях. Но такие алгоритмы уже вчерашний день. 2021 год ознаменуется появлением более опасных алгоритмов: алгоритмов, которые понимают причину тех или иных действий и подстраиваются под наше психологическое восприятие. Социальная инженерия автоматизируется и ставится на поток.

Исследователи из Технологического института Джорджии и Facebook AI Research поставили перед собой задачу научить алгоритм воздействовать на людей. Некоторые алгоритмы, аналогичные GPT-3, могут писать истории и вести блоги, но они не способны создавать эмоционально и психологически убедительные тексты. В отличие от бездушных алгоритмов, люди используют общение для продвижения своих идей и воздействия на окружающих. Этим пользуются не только известные политические лидеры и медийные звёзды. Убедительно говорить умеют все успешные люди, например, руководители компаний, рекламные агенты, журналисты, продавцы в автосалонах или адвокаты.

Чтобы научить алгоритмы создавать убедительные тексты, исследователи объединили методы обработки естественного языка и обучения с подкреплением, где алгоритмы искусственного интеллекта обучали находить решения для достижения поставленной цели. За последние несколько лет в каждой из этих областей был достигнут серьёзный прогресс, но разработчики не задумывались над объединением этих методов.

Чтобы проверить результативность такого подхода, исследователи обучили свою систему текстовой многопользовательской игре LIGHT. Игра была разработана Facebook полтора года назад для изучения общения между людьми и ИИ. Игроки (человек или компьютер) действуют, набирая команды, например, «обнять волшебника» или «поразить дракона». Они также могут общаться с персонажами, управляемыми чат-ботами.

Исследователи создали граф знаний (база данных отношений субъект-глагол-объект), который давал искусственному интеллекту информацию об игровом мире и связях между его персонажами. В игре появились такие действия, как «Иди в горы» и «Съешь рыцаря», которые необходимо выполнить для прохождения квестов.

Собрав все это вместе, алгоритмы обучили выполнять квесты, просто используя текстовые сообщения. Для выполнения задания предлагается выбрать один из двух вариантов: ввести команду для какого-то действия, либо достичь того же результата, разговаривая с другими персонажами. Например, если нужен меч, его можно украсть или убедить другого персонажа игры отдать его.

Пока система ограничивается игрой. Её манера общения может быть грубой: в какой-то момент, когда ей нужно ведро, она просто говорит: «Дай мне это ведро, или я скормлю тебя своему коту!» Но сочетание НЛП и обучение с подкреплением – важный шаг, который может привести не только к созданию чат-ботов, которые способны спорить и убеждать, но и смогут манипулировать общественным мнением.

По материалам MIT Technology. Автор Will Douglas Heaven

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *