Компания OpenAI, разработчик чат-бота ChatGPT на основе искусственного интеллекта, выпустила специализированный классификатор (OpenAI Classifier), способный отличить написанный человеком текст, от материала, созданного нейросетью.
Инструмент представляет собой языковую модель, при обучении которой использовались пары текстов — один из них был написан человеком, а второй сгенерирован ИИ-системой. Такие пары материалов имели одну и ту же тематику, но были взяты из различных источников. Для классификатора установлен порог достоверности, призванный минимизировать количество ложных срабатываний.
Во время тестирования с использованием текстов на английском языке инструмент корректно идентифицировал 26% материалов, сгенерированных искусственным интеллектом, пометив их как «вероятно написан ИИ» (истинные положительные результаты). Вместе с тем в 9% случаев классификатор неправильно определял текст, созданный человеком, как написанный нейросетью (ложные срабатывания). Отмечается, что точность работы инструмента повышается с увеличением длины анализируемого материала.
Компания OpenAI говорит, что классификатор может пригодиться преподавателям для выявления поддельных работ учеников. Кроме того, инструмент поможет в выявлении дезинформации, публикуемой в различных источниках. Однако подчёркивается, что классификатор не является полностью надёжным: его следует использовать не как основной инструмент принятия решений, а как дополнение к другим методам определения источника текста. В частности, система очень неточна при обработке небольших текстовых фрагментов — менее 1000 символов. Кроме того, текст, сгенерированный ИИ, можно редактировать, чтобы обмануть классификатор. В текущем виде система оптимизирована для англоязычных материалов и не даёт надёжные результаты для других языков.
По материалам TAdviser