Комментарии 6
Подскажите, пожалуйста, почему langchain и LangGraph в проде не используете, есть какие-то проблемы с ними?
Мы использовали LangGraph весной-летом прошлого года (возможно уже выпустили обновления), возникли сложности с отслеживанием состояния агентов (сейчас это решает LangSmith), не было механизмом для задания лимитов рекурсии. В целом "самописное" решение получилось более эффективным в проде и кастомизируемым, но все равно у семейства Lang-* большой потенциал. Я использую LangChain для создания простых агентов, чтобы автоматизировать свою рутину.
Не очень понятно что значит сохранять контекст, например, в openai он в треде сохраняется, зачем мне langchain?
В Python коде из примера №1, который я привёл, как раз используется OpenAI API. И там приходится сохранять сообщения вручную в массиве messages.
Возможно вы имеете в виду обычный браузерный интерфейс chatgpt, где пользователь в режиме чата общается с моделью?
Также у OpenAI есть в режиме beta threads API, связанный с assistant, но это будет работать только с нативными моделями от OpenAI. Не получится использовать другие модели не от OpenAI, которые поддерживают такой же протокол (к примеру vLLM).
Как LangChain и LangGraph упрощают жизнь разработчика ИИ-Агентов