Comments 4
Если не надо было бы инфоповод и хайпануть, могли бы вместо этого хитрого протокола, просто REST API с OpenAPI-спекой подключать.
С этой новой прекрасной идеей, ждём новую версию протокола, где для Tool можно схему ответа указать. А то там сейчас тупо текст, и как модель сможет написать код, который как-то результат обработает - не ясно.
Вопрос к автору: можно ли привести другой пример реализации? Указанный пример с формированием пунктов из стенограммы выглядит слишком упрощенным. Ну то есть, если можно с помощью регулярного выражения выдернуть пункты из текста и создать их, то зачем здесь вообще LLM?
Вы прекрасно можете ознакомиться с Документацией.
Отлично придумано! Надеюсь код она валидирует и при необходимости изменяет
Sign up to leave a comment.
Как агенты на базе LLM становятся практичнее: подход Anthropic к выполнению кода в MCP