Как стать автором
Поиск
Написать публикацию
Обновить

Комментарии 4

Пока langchain отложили в сторону. Так как

  • дебажить промты,

  • дебажить когда что вызывается,

  • переписывать ВСЕ промпты на другой язык, так как с английским промптом работал хуже

  • оптимизация запросов

оказалось что эти пункты занимают больше времени, чем реализовать пока свою.

Любопытный коммент.
Тестрию LangChain т.к. остро нужно расширить модель корпоративной информацией (обширной схемой данных).
Порядок вызова мало беспокоит, но есть сложности с подключением нашей схемы данных.


… переписывать ВСЕ промпты на другой язык, так как с английским промптом работал хуже

Уточните пож. этот пункт.

Документы у нас не на английском. У LangChain все промпты на английском. И вот когда используешь дефолтный промпт по своим документам, то качество ответа иногда хуже, а иногда вообще ответ на английском языке.
Если перевести на свой язык, то эти проблемы исчезают, появляются другие: медленнее выдает ответ, цепочка вызовов может сломаться.

Может подскажете как быть. Есть сервер, который поддерживает opeanai api, отвечает несколько хуже чем chatgpt. Из-за этого отвечает иногда ломанным json-ом. То текст какой-то вставит лишний, то лишние кавычки и т.д.

Хочется добавить что-то в цепочку, что бы при ошибках ответа от сервера - оно либо повторяло запрос, либо просило "исправить" битый json.

Нашёл нечто похожее на то что нужно "RetryWithErrorOutputParser", но не понятно как прикрутить.

Использую ChatOpenAI, ConversationChain.
На самом деле пытаюсь прикрутить тулзу например Google search или Python REPL к чату. И вот тут по цепочке возникают разные проблемы.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации