Комментарии 2
Благодарю за статью. Правильно ли я понял, сервер MCP не должен иметь LLM на борту. Просто у него есть роут, который показывает все возможные команды на естественном языке и роуты для каждой команды, если на исполнение передана одна из прописанных в нем комманд, то он возвращает соответствующие этому данные. То есть, простыми словами, это обычный API только вместо параметров запроса передается текст. Или нет?
Mcp это model context протокол, а не сервер.
Сервер это обычное api (там есть разделение на тулзы/ресурсы, но не суть). методы принимают параметры, НЕ текст.
а Llm подставляет параметры запроса сама.
Пример, "Используйте калькулятор - сложи два числа". Llm в середине рассуждений видит тригер ("нужно сложить") и тут срабатывает передача по протоколу -> mcp сервер вернут результат метода, а LLM радостно его примет за правду.
Т.е. приложение запускающее ллм должно поддерживать mcp. И в запросе передаются уже параметры, а не текст.
PS поправьте если не совсем так - пару дней играюсь с ними.
Если используете LLM - mcp это то с чем нужно разобраться...но вроде только claude desktop поддерживает и у qwen появится.
Всё, что вам нужно знать о MCP (Model Context Protocol) от Anthropic