Чат-бот ChatGPT на основе искусственного интеллекта, разработанный компанией OpenAI, пока не подходит на роль репортёра. Об этом, как стало известно в начале марта 2023 года, свидетельствуют результаты эксперимента, проведённого британской газетой.
Издание, пожелавшее остаться неназванным, выдало боту ChatGPT задание подготовить материал о жестоком ограблении пожилой женщины в Буэнос-Айресе. При этом, используя предоставленный исходный текст, требовалось добавить имена, указать конкретное место происшествия и вставить другие подробности.

Как отмечается, сгенерированная нейросетью новость на первый взгляд выглядела довольно сносно — особенно с учётом того, что искусственный интеллект самостоятельно придумал, как структурировать репортаж с острым вступлением, короткими предложениями и последовательным изложением, примерно соответствующим перевёрнутой пирамиде.
Но последующий анализ текста, выполненный редактором, выявил множество неточностей и сомнительных моментов. Оказалось, что ChatGPT некорректно указал имя и возраст жертвы, а также место преступления. В сгенерированной новости было указано, что преступник неизвестен и остаётся на свободе, но на деле он был идентифицирован и арестован. Вероятно, были сфабрикованы цитаты мэра Буэнос-Айреса (при указании имени которого была также допущена неточность) и детей пострадавшей. Кроме того, описание имеющегося видеоматериала не соответствовало кадрам.
В результате, газета пришла к выводу, что ChatGPT в текущем виде не подходит для написания полноценных новостей. С другой стороны, многие издатели рассматривают возможность использования этого чат-бота для генерации определённого контента с использованием строго контролируемого исходного материала. Это могла бы быть, например, обработка каких-либо статистических данных.
По материалам TAdviser