Как стать автором
Обновить

Комментарии 7

Эх… Всё примеры ждал в тексте запроса и ответа, чтобы насытить любопытство. Ведь что-то не менее пафосное, чем ответ на главный вопрос жизни и человечества предвидится. Но не в этот раз. Пресрелизная вода

Снова тонны маркетингового вранья. А вместо описания каких либо достигнутых практических результатов снова тонны булшита:
«практически для любой задачи», «мы надеемся, что API значительно снизит барьер для производства полезных продуктов на базе искусственного интеллекта»,«объединил «все человеческие знания»»
Хотя по правде, булшит из этой статьи уж совсем какой-то агрессивный, наглый и совсем с оторванной головой. Впервые читаю, что какой-то булшит «объединил «все человеческие знания»». Предположу, что следующее дно булшита на тему не существующего ИИ будет заявлять, что оно не только «объединил «все человеческие знания»», но и уже содержит часть будущих знаний человечества.
Жаль не написали, сколько text in/out надо загрузить — 10, 1000, 1М, 100М.
Нисколько нельзя загрузить, можно только спросить модель. Почитайте про few-shots learning в оригинальной научной работе ( https://arxiv.org/abs/2005.14165: Language Models are Few-Shot Learners ):
"Few-Shot (FS) is the term we will use in this work to refer to the setting where the model is given a few
demonstrations of the task at inference time as conditioning, but no weight updates are allowed.
"
Пример:
Подают на вход сети такую строчку:
Q: What is 15 plus 15? A: 30.\nQ: What is 92 plus 16? A: 118.\nQ: What is 18 plus 24?
А модель говорит в ответ: «A: 42». (Точность на именно таком сценарии с двухзначными числами достигает 100%, с числами подлиннее точность начинает резко падать)
Вот именно это API и даёт.
По случаю предлагаю переименовать OpenAI в OpenAPI.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости