Обновить

Комментарии 9

Интересная идея, получаеться что если создать файл описания базы данных или использовать саму метадату базы данных, можно дать аналитику возможность строить запросы через Claude используя MCP. Я думал что надо возиться с RAG.

RAG нужен, когда модели не хватает контекста. А здесь - прямой доступ до БД, понятное название таблицы и полей в ней. LLM весь контекст собирает первыми запросами - читает схемы, смотрит названия полей, потом понимает как строить SQL для ответов на промт

Не пойму, LLM ведь сама может сделаnь show tables, getTableSchema и т.д

Профит от MCP по идее должен быть в метаданных описывающих таблицы, а где он тут? Из текста статьи непонятно.

Ну, т.е. очевидна польза MCP при работе n8n напрмер, но с БД - чем это отличается от generic text-to-sql?

А зачем делать docker compose, если потом в настройках подключения к mcp делается docker run? Причем не используется даже фаил конфигурации с sql паттерном (подключенный в docker compose, но, как мы уже заметили, контейнер запущенный в docket compose не используется)

@alexandervarlamovможешь объяснить, пожалуйста?

Заплатить за использование ресурса Claude n количество реальных денег, что бы получить сводную таблицу - такое себе решение. Был бы пример, как это реализовать на локальной ИИ, тогда идея имела бы место. Я себе похожее делал на локальной ИИ без GPU, когда голосом давал найти информацию в базе, локальная ИИ через мср обращалась в субд и возвращала на экран результат и комментировала его голосом, вот такое решение более интересно.

Можно подробнее, что за локальный ИИ и как подключали к базе? Благодарю за ответ.

К базе ИИ обычно подключают через MCP сервер. Локальное ИИ может работать как на CPU, так и на gpu. На CPU работают самые "тупые" модели, но если для них написать dataset с определенными правилами типа слово "найди" , то по такому запросу эта ии будет перенаправлять запрос на MCP сервер. Ответ тоже будет стандартный. Для больших ИИ моделей нужно огромное количество VRAM, опыт показал, что на 32гиг VRAM вмещается модель и очень маленький буфер для контента, нормального диалога с ии не получится, или надо подключать ram, что снижает скорость ответа ии в разы. Локально, по сути , можно установить только узкоспециализированно обученные модели.

Для общения с моделью голос нужно перевести в текст. Для этого существуют локальные программные сервисы для русского языка. Для озвучивания ответа модели работает другой сервис. Здесь все намного проще.

Спасибо.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации