Газета разочаровалась в новостных текстах от ChatGPT

Чат-бот ChatGPT на основе искусственного интеллекта, разработанный компанией OpenAI, пока не подходит на роль репортёра. Об этом, как стало известно в начале марта 2023 года, свидетельствуют результаты эксперимента, проведённого британской газетой.

Издание, пожелавшее остаться неназванным, выдало боту ChatGPT задание подготовить материал о жестоком ограблении пожилой женщины в Буэнос-Айресе. При этом, используя предоставленный исходный текст, требовалось добавить имена, указать конкретное место происшествия и вставить другие подробности.

Неназванное издание попросило ChatGPT написать новость об ограблении в Буэнос-Айресе

Как отмечается, сгенерированная нейросетью новость на первый взгляд выглядела довольно сносно — особенно с учётом того, что искусственный интеллект самостоятельно придумал, как структурировать репортаж с острым вступлением, короткими предложениями и последовательным изложением, примерно соответствующим перевёрнутой пирамиде.

Но последующий анализ текста, выполненный редактором, выявил множество неточностей и сомнительных моментов. Оказалось, что ChatGPT некорректно указал имя и возраст жертвы, а также место преступления. В сгенерированной новости было указано, что преступник неизвестен и остаётся на свободе, но на деле он был идентифицирован и арестован. Вероятно, были сфабрикованы цитаты мэра Буэнос-Айреса (при указании имени которого была также допущена неточность) и детей пострадавшей. Кроме того, описание имеющегося видеоматериала не соответствовало кадрам.

В результате, газета пришла к выводу, что ChatGPT в текущем виде не подходит для написания полноценных новостей. С другой стороны, многие издатели рассматривают возможность использования этого чат-бота для генерации определённого контента с использованием строго контролируемого исходного материала. Это могла бы быть, например, обработка каких-либо статистических данных.

По материалам TAdviser

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *