Строим витрину данных с Claude через MCP

Давайте разберем, как выглядит работа с MCP, на реальном примере из опыта моего дата-консалтинга. В этой статье теории не будет, только практика, много скриншотов и пара лайфхаков.
Data Engineering & Data Analytics @ leftjoin.ru

Давайте разберем, как выглядит работа с MCP, на реальном примере из опыта моего дата-консалтинга. В этой статье теории не будет, только практика, много скриншотов и пара лайфхаков.

MCP-сервер — инструмент, который связывает вашу ИТ-инфраструктуру и LLM и за счет этого делает работу с ИИ эффективнее и проще. Но этих серверов уже очень много, и может быть непонятно, как найти среди них подходящий вариант. В этой статье поделюсь своими лайфхаками.
Если вы решите использовать ИИ в работе, то, скорее всего, столкнетесь с одной большой проблемой.
Какой бы детальный промпт вы ни написали для ChatGPT или Claude, они все равно не видят все ваши данные, документацию и историю изменений. Еще и функционал ограничен: вы можете только отправлять запросы в чат, а потом самостоятельно руками копировать ответ и вставлять в код. Из-за этого с небольшими задачами нейросети справляются, но полноценно интегрировать их в большой проект на долгий срок — занятие довольно муторное.
Или оно скорее было таковым, пока Anthropic не представила MCP или Model Context Protocol. Это протокол, который управляет обменом данными между LLM и вашими источниками — базами, API, IDE и так далее. В рамках этого протокола модель может сама активно включаться в рабочий процесс (под присмотром человека, конечно). А если точнее:

dbt — это фреймворк для трансформации данных внутри хранилища и отличный инструмент для аналитиков и дата-инженеров на больших проектах, где число SQL-скриптов может переваливать за сотни. Мы с командой много работаем с dbt, и в этой статье хочу поделиться своим опытом: расскажу о его ключевых элементах и некоторых лучших практиках на примере одного кейса.
Это не гайд, как развернуть dbt и создать проект, а знакомство с тулом для тех, кто пока с ним не работал и хочет разобраться, что это вообще такое.

Большинство компаний так или иначе заявляют о себе в интернете — делают сайты, ведут соцсети, покупают рекламу и размещаются у блогеров. Все это требует вложений и иногда — немаленьких, поэтому бизнесу нужен инструмент, который позволял бы отслеживать, насколько эффективно расходуются деньги и какие каналы приводят больше всего людей. Веб-аналитика — это именно такой инструмент.
Веб-аналитика — это способ понять, как пользователи взаимодействуют с сайтом, откуда они пришли и что делали. Она помогает отследить путь от первого посещения до целевого действия и оценить эффективность разных маркетинговых активностей.
В этой статье мы расскажем про основы, которые надо знать, чтобы начать эффективно выстраивать веб-аналитику в своей компании: источники данных, способы сбора, метрики и особенности разных каналов привлечения клиентов.

Выход практически каждого ролика на канале «вДудь» считается событием, а некоторые из этих релизов даже сопровождаются скандалами из-за неосторожных высказываний его гостей.
Сегодня при помощи статистических подходов и алгоритмов ML мы будем анализировать прямую речь. В качестве данных используем интервью, которые журналист Юрий Дудь (признан иностранным агентом на территории РФ) берет для своего YouTube-канала. Посмотрим с помощью Python, о чем таком интересном говорили в интервью на канале «вДудь».


Сегодня почти любая современная компания собирает, хранит и использует данные о своей деятельности, используя облачные технологии. В этой статье вы можете узнать о том, как можно вытащить данные из AmoCRM, обработать их с помощью функций и проанализировать с помощью DataLens. Этот кейс решила команда дата-аналитиков Valiotti Analytics совместно с командой Yandex.Cloud.