Несмотря на то, что прошло всего несколько месяцев после запуска, феномен чат-ботов с искусственным интеллектом ChatGPT полностью захватил Интернет. Его быстрая способность отвечать на запросы, помогать с выполнением задач и генерировать контент сделала его полезным ресурсом для студентов, сотрудников и бесчисленного множества других пользователей. Не говоря уже о том, что возможность открыть бесплатную учётную запись за считанные секунды и простота использования сделали его ещё более привлекательным инструментом.
К сожалению, помимо очевидных преимуществ, ChatGPT также служит мощным оружием для легкого создания вредоносного контента в большём масштабе, выводя киберпреступность на совершенно новый уровень. Безусловно, исследователи обнаружили случаи, когда киберпреступники обходили ограничения ChatGPT по борьбе со злоупотреблениями для создания или просмотра вредоносного кода. Он также обладает способностью создавать очень убедительные диалоги для видеороликов deepfake за считанные секунды, позволяя плохим актёрам распространять дезинформацию быстрее, чем когда-либо.
Поскольку киберпреступники продолжают находить новые способы злонамеренного использования ChatGPT, организации и потребители должны быть лучше подготовлены к самозащите.
Приготовьтесь к кибератакам чат-ботов
Возможно, одной из самых больших угроз генеративного ИИ является вновь обретённая способность быстро распространять дезинформацию в больших масштабах. В январе 2023 года исследователи предсказали, что генеративный искусственный интеллект упростит и удешевит генерацию дезинформации для ещё большего числа пропагандистов и сторонников теории заговора. Но эта реальность гораздо ближе к нам, чем мы могли бы подумать — на самом деле, она уже здесь. Были десятки случаев, когда представители национальных государств создавали сгенерированные искусственным интеллектом видеоролики с политическими фигурами для распространения дезинформации, и становится всё труднее отличить, что реально, а что нет. Благодаря таким инструментам, как ChatGPT и другие генераторы синтетических медиа, которые доступны бесплатно и находятся у нас под рукой, любой, у кого есть доступ в Интернет, теперь может генерировать кибератаки и распространять дезинформацию.
Кроме того, генеративные технологии постоянно развиваются и вскоре, возможно, получат возможность полностью подключаться к Интернету. Это позволило бы чат-ботам получать доступ к оперативной информации в режиме реального времени, что ещё больше повысило бы их точность. Когда это произойдёт, боты станут ещё более изощрёнными, чем они уже есть. Если они попадут не в те руки, неизвестно, какая пропаганда может распространяться по каналам СМИ, включая новостные агентства и платформы социальных сетей.
Многие из нас уже получали эти фишинговые текстовые сообщения, в которых наши начальники или друзья просят нас перевести деньги или отправить им подарочные карты — за исключением того, что на другом конце провода на самом деле не кто-то из наших знакомых. Насколько нам известно, эти фишинговые текстовые сообщения были разосланы реальными людьми, выдающими себя за тех, кем они не являются. Но теперь, благодаря генеративной технологии, один человек может массово рассылать эти тексты и нанимать ботов для поддержания разговора.
Откажитесь от КАПЧИ. Необходимы новые инструменты обнаружения ботов
Поскольку исследования показывают, что ChatGPT может обманом заставить людей обходить CAPTCHA, тот самый инструмент, предназначенный для защиты от ботов, то становится ясно, что онлайн-организации должны эволюционировать, выходя за рамки этих устаревших методов.
Предприятия несут ответственность за обеспечение безопасности своего бизнеса и своих клиентов, но методов обнаружения ботов прошлого недостаточно для новой волны ботов и мошенничества. Что необходимо, так это сложные инструменты проверки личности, которые могут подтвердить, что каждый, кто создаёт учётную запись и впоследствии входит в неё, является реальным человеком за экраном.
Решения такого типа могут включать в себя определение живучести, когда защищённый алгоритм определяет, является ли образец биометрической аутентификации поддельным изображением или живым человеком. Другой тип инструмента идентификации, который могут использовать организации, – это проверка личности, ориентированная на документы, когда удостоверение личности, выданное правительством, сравнивается с селфи в режиме реального времени, чтобы подтвердить, что пользователь тот, за кого себя выдаёт. Эти современные технологии цифровой идентификации могут дать предприятиям уверенность в том, что их пользователи – реальные люди и действительно те, за кого они себя выдают, одновременно помогая защитить потребителей от дезинформации и мошенничества.
Считайте себя ботом, пока не доказано, что вы человек
Как потребители, мы также обязаны проявлять особую осторожность при знакомстве с любым контентом в Интернете, даже если кажется, что он из авторитетного источника. Потребители не всегда должны верить каждому фрагменту контента, который они видят, и им рекомендуется проводить дальнейшие исследования новостей, которые кажутся даже отдалённо подозрительными. Что касается социальных сетей, то пользователям было бы разумно сначала предположить, что аккаунты являются ботами, пока не будет доказано, что ими управляет человек, особенно когда речь идёт о сомнительном контенте.
Хотя генеративный ИИ имеет свои очевидные преимущества, он также создаёт значительные социальные риски. Однако, если организации будут использовать современные инструменты, а потребители будут проявлять осторожность при знакомстве с контентом в Интернете, у кибератак с использованием чат-ботов не будет шансов.
По материалам Biometrics Research Group. Автор Philipp Pointner