Комментарии 9
Интересная идея, получаеться что если создать файл описания базы данных или использовать саму метадату базы данных, можно дать аналитику возможность строить запросы через Claude используя MCP. Я думал что надо возиться с RAG.
Не пойму, LLM ведь сама может сделаnь show tables, getTableSchema и т.д
Профит от MCP по идее должен быть в метаданных описывающих таблицы, а где он тут? Из текста статьи непонятно.
Ну, т.е. очевидна польза MCP при работе n8n напрмер, но с БД - чем это отличается от generic text-to-sql?
А зачем делать docker compose, если потом в настройках подключения к mcp делается docker run? Причем не используется даже фаил конфигурации с sql паттерном (подключенный в docker compose, но, как мы уже заметили, контейнер запущенный в docket compose не используется)
@alexandervarlamovможешь объяснить, пожалуйста?
Заплатить за использование ресурса Claude n количество реальных денег, что бы получить сводную таблицу - такое себе решение. Был бы пример, как это реализовать на локальной ИИ, тогда идея имела бы место. Я себе похожее делал на локальной ИИ без GPU, когда голосом давал найти информацию в базе, локальная ИИ через мср обращалась в субд и возвращала на экран результат и комментировала его голосом, вот такое решение более интересно.
Можно подробнее, что за локальный ИИ и как подключали к базе? Благодарю за ответ.
К базе ИИ обычно подключают через MCP сервер. Локальное ИИ может работать как на CPU, так и на gpu. На CPU работают самые "тупые" модели, но если для них написать dataset с определенными правилами типа слово "найди" , то по такому запросу эта ии будет перенаправлять запрос на MCP сервер. Ответ тоже будет стандартный. Для больших ИИ моделей нужно огромное количество VRAM, опыт показал, что на 32гиг VRAM вмещается модель и очень маленький буфер для контента, нормального диалога с ии не получится, или надо подключать ram, что снижает скорость ответа ии в разы. Локально, по сути , можно установить только узкоспециализированно обученные модели.
Для общения с моделью голос нужно перевести в текст. Для этого существуют локальные программные сервисы для русского языка. Для озвучивания ответа модели работает другой сервис. Здесь все намного проще.

Подключаем Claude по MCP к базе данных на домашнем компьютере