В любом случае спасибо за статью. Если бы наткнулся на неё до того, как всё настроил, мне бы очень помогло ).
Для тех, кому ещё предстоит этот путь, дам подсказки:
В варианте с MCP мы не отказываемся от уровня 5, просто на этом уровне вместо FastAPI прокси мы пишем MCP прокси ). К сожалению, стандартный MCP у Langflow пока не очень, поэтому есть смысл написать свою прослойку, чтоб дать понятные имена всем инструментам, их параметрам и замаппить эти параметры на tweaks. После этого получается действительно круто, можно делать десятки разных корпоративных инструментов. ИИ сам будет превращать текстовый запрос пользователя в чёткий набор параметров, передаваемых в поток Langflow.
Плюс, такой подход позволяет добавлять в MCP собственные инструменты (не на Langflow) и разбивать инструменты на несколько MCP, чтоб не размывать контекст.
Интересно. У меня как раз тот же стэк. Только не понял, почему отказались от MCP и решили использовать Langflow как отдельную модель в Librechat. Если потоков в Langflow будет много, то человеку придётся помнить их все. Если собрать все потоки в виде MCP, то помнить будет не человек, а ИИ.
Правда для правильной работы MCP пришлось писать свою прослойку (как и вам с FastAPI). Зато в итоге я могу подключать в MCP не только Langflow, но и другие инструменты.
В любом случае спасибо за статью. Если бы наткнулся на неё до того, как всё настроил, мне бы очень помогло ).
Для тех, кому ещё предстоит этот путь, дам подсказки:
В варианте с MCP мы не отказываемся от уровня 5, просто на этом уровне вместо FastAPI прокси мы пишем MCP прокси ). К сожалению, стандартный MCP у Langflow пока не очень, поэтому есть смысл написать свою прослойку, чтоб дать понятные имена всем инструментам, их параметрам и замаппить эти параметры на tweaks. После этого получается действительно круто, можно делать десятки разных корпоративных инструментов. ИИ сам будет превращать текстовый запрос пользователя в чёткий набор параметров, передаваемых в поток Langflow.
Плюс, такой подход позволяет добавлять в MCP собственные инструменты (не на Langflow) и разбивать инструменты на несколько MCP, чтоб не размывать контекст.
Интересно. У меня как раз тот же стэк. Только не понял, почему отказались от MCP и решили использовать Langflow как отдельную модель в Librechat. Если потоков в Langflow будет много, то человеку придётся помнить их все. Если собрать все потоки в виде MCP, то помнить будет не человек, а ИИ.
Правда для правильной работы MCP пришлось писать свою прослойку (как и вам с FastAPI). Зато в итоге я могу подключать в MCP не только Langflow, но и другие инструменты.