Появился ИИ, который пишет письма, стихи и программный код

Лаборатория OpenAI расширила доступ к своей языковой модели GPT-3, которая способна автоматически генерировать литературные тексты, отвечать на вопросы и писать программный код. Реализован также ряд защитных механизмов от возможных злоупотреблений.

Стихи и код

Исследовательская лаборатория OpenAI перевела в режим открытого бета-тестирования свою лингвистическую ИИ-модель GPT-3, которая, по утверждению разработчиков, способна автоматически писать письма и новости, сочинять стихи, а также писать код на десятке языков программирования.

Доступ к API, правда, открыт разработчикам из широкого, но ограниченного списка стран, и Россия в него не входит.

GPT-3 и ее деривативы, такие как Codex, можно настраивать для использования в приложениях, требующих глубокого понимания языка. Среди возможных способов применения — генерация программного кода из выражений, написанных на обычном языке, смысловое резюмирование большого объема текста и генерация ответов на вопросы.

GPT-3 стала доступна тестерам в 2020 г. через OpenAI API. Через некоторое время ее использовали уже в трех сотнях разных приложений.

Запущено бета-тестирование ИИ, который может генерировать стихи, код и пропаганду

С недавних пор GPT-3 доступна корпоративным пользователям облачной среды Microsoft Azure, на базе которой запущен сервис OpenAI Service. Пользователи получают, помимо доступа к GPT-3 и ее производных, инструменты обеспечения безопасности и другие бизнес-функции.

У Microsoft довольно тесные отношения с OpenAI: корпорация инвестировала в эту лабораторию $1 млрд в 2020 г. и получила эксклюзивную лицензию на использование GPT-3 при разработке ИИ-решений для Azure.

Усовершенствование безопасности

В публикации OpenAI указывается, что перевод GPT-3 в (частично) открытое тестирование стал возможен благодаря «усовершенствованию безопасности». Лаборатория разработала конечные критерии оценки правдивости вопросов-ответов, создала контент-фильтр для пресечения злоупотреблений и реализовала «инструкционные» модели, которые точнее следуют инструкциям, поступающим от людей.

Например, как утверждают в OpenAI, такие модели позволяют GPT-3 выполнять указания вроде «Объясните шестилетнему ребенку, что такое посадка на Луну, в нескольких предложениях».

Конечные критерии вопросов-ответов позволяют разработчикам обеспечивать модели дополнительный контекст для приложений, от которых требуется высокий уровень точности в ответах. Источником контекста служат документация и базы знаний, а фильтр контента создан для того, чтобы избежать генерации машиной ответов, которые могут кого-то задеть или оскорбить.

«Мы уверены, что благодаря открытому доступу к этим моделям через простой в использовании API все большее количество разработчиков найдут новые, уникальные способы применения искусственного интеллекта в полезных приложениях и для решения открытых проблем, — говорится в публикации OpenAI. — Чтобы удостовериться, что приложения, использующие API, созданы с должной ответственностью, мы предоставляем инструментарий и помогаем разработчикам использовать оптимальные методы для быстрого и безопасного развертывания. По мере того, как наши системы развиваются и мы стремимся расширить возможности наших защитных мер, мы также планируем оптимизировать процесс для разработчиков, а заодно улучшить наши рекомендации по использованию, что в дальнейшем обеспечит расширение диапазона практического применения библиотеки».

В OpenAI, однако, признают, что полностью справиться с проблемой токсичности, типичной для крупных языковых моделей, их средства обеспечения безопасности не позволяют.

Модель тренировалась на основе 600 гигабайт текстовой информации из интернета, и часть этих текстов поступила, в том числе, из сообществ, для которых характерны различные предрассудки, в том числе религиозные, расовые и половые. Это накладывает свой отпечаток на данные, составившие основу для обучения модели.

Различные исследования показали, что GPT-3 может быть использована для генерации «радикализирующих» текстов и разного рода дезинформации. В правилах использования API четко прописано, что его нельзя использовать для генерации текстов, относящихся к политике, призывающих к насилию, возбуждающих ненависть, нацеленных на травлю. Также запрещено использовать систему для всего, что связано со спамом, созданием вредоносного ПО и т. д.

В OpenAI разрабатывают «целевые фильтры» для определенных категорий контента. Речь идет, в том числе, о контенте «для взрослых»: по признанию разработчиков GPT-3, система на данный момент не способна отличить приемлемые и неприемлемые формы такого контента.

«Технологии искусственного интеллекта, в том числе лингвистические модели — это обоюдоострый инструмент, сделать его совершенно безопасным, сохраняя эффективность, едва ли возможно. Можно лишь заблокировать некоторые наиболее очевидные формы возможного злоупотребления, и именно это OpenAI и пытается сделать»

Дмитрий Кирюхин, эксперт по информационной безопасности компании SEQ

Более года назад, появилась информация, что «нейросетевой журналист» писал для израильских СМИ.

По материлам CNews. Автор Роман Георгиев

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *