Вспомните, как вы онбордили аналитика: показывали данные, примеры рабочих SQL, неочевидные легаси и костыли — и через какое-то время он начинал перформить самостоятельно.

Чтобы научить AI-агента — нужно пройти ровно те же шаги, только вместо недель, на обучения потратятся часы, а в результате большая часть рутины аналитика будет автоматизирована.

В этой статье я расскажу, как я автоматизировал свой анализ данных, и дам пошаговую инструкцию, которую вы с легкостью сможете повторить это у себя в проекте.

Статья будет полезна как предпринимателям, которые хотят оптимизировать процессы, так и аналитикам, которые хотят прокачать себя. Погнали!

Кто я такой

Меня зовут Даниил Охлопков и я Analytics Lead в TON Foundation. Мне регулярно прилетают разношерстные вопросы о том, что произошло внутри блокчейна, так и вне его: анализ ончейн метрик и доходов приложений, продуктовая аналитика, разметка адресов, поиск и анализ трендов, сеток ботов и всякое разное.

Рассказываю о своём опыте в тг канале.

Почему джуна не уволят (но его роль изменится)

Давайте сразу разберёмся с кликбейт заголовком. AI-агент может быть умнее, быстрее и дешевле, но есть одна вещь, которую умеет только человек — взять ответственность за финальный результат.

Поэтому условный джун никуда не денется, но его роль меняется: вместо того чтобы писать SQL и формулы в Excel, он становится менеджером и ревьюером того, что написал AI. Почти полная автоматизация исследований освобождает заметную часть времени сотрудника. Вы не пишете код — вы проверяете и направляете того, кто пишет его лучше, быстрее и точнее вас.

В разработке ПО этот сдвиг уже произошёл. Многие программисты по всему миру переживают, что из "писателей кода" они превращаются в "менеджеров". Метафора: раньше механик закручивал болты, а теперь управляет целым поездом. Кому-то это не нравится. Но прогресс не остановить — многие компании в Штатах уже обязывают разработчиков использовать AI-инструменты каждый день, так как оказывается, что джун, который научиться работать с AI, перформит на уровне опытного специалиста без AI. И пока "пузырь не лопнул", мы наслаждаемся дешевыми ценами на LLM за счет венчурных денег.

Аналитик ≠ генератор SQL

LLM хорошо пишут SQL — это уже давно не новость. Но этого недостаточно, ведь задача аналитика "извлекать из данных смысл и помогать командам принимать правильные решения".

Именно поэтому AI агент (а не просто вызов LLM автокомплита) подходит для нашей задачи: он сам решает, куда копать дальше. Планирует, выполняет запрос, смотрит на результат, формулирует следующую гипотезу, а в конце - собирает отчет. Как живой аналитик.

Современные AI агенты (Claude Code, OpenAI Codex, Cursor, OpenCode и тп) оснащены всем необходимым для создания рисерчера:

  1. Тулы для работы с терминалом (для чтения файлов и вызывания SQL запросов в базу данных, например, через psql).

  2. Тулы для поиска в интернете (иногда проще загуглить, если недостает знаний).

  3. Современные модели от OpenAI и Anthropic уже достаточно умные из коробки: они насмотрелись на великое множество других данных и гипотез в интернете, поэтому с вашим частным случаем они точно справятся.

  4. Субагенты, планирование, импровизация.

Собираем AI-аналитика: пошаговай гайд

Расскажу на примере, как я собрал блокчейн аналитика, использующего открытые данные TON на публичном даталейке Dune.com. TON - блокчейн с уникальной архитектурой - если агент тут справился, то и с вашим B2B SaaS уж и подавно. :)

TL;DR: по факту мы соберем и правильно положим всю релевантную инфу и инструкции в одном месте, чтобы агент понимал суть проекта и свои задачи.

Нейронки сейчас достаточно умные. Если вы просто дадите AI агенту read-only DATABASE_URL от бд — он прочитает схемы таблиц и сходу сможет писать запросы. Если база простая и нейминг интуитивно понятен, вы будете приятно удивлены возможностями аналитика "из коробки".

Но с ростом проекта нюансов становится ну очень много. Даже кожаного джуна нужно обучать: он не поймет сходу все ваше легаси, специфику данных, неочевидные JOIN-ы и бизнес-логику, закопанную в недрах SQL-запросов вашего DWH. Это же нужно объяснить и AI.

К счастью, если вы уже вели такую документацию — её можно загрузить в агента в качестве контекста. К сожалению, очень мало кто вел и поддерживал актуальность документации до 2026. Хорошая новость: для продуктивной работы с AI агентами это сново в моде, ведь если нормально не объяснить - никто не сможет разобраться, что у вас там происходит.

качество аналитики = качество контекста, который вы даёте агенту.

Шаг 1: Собрать в одном месте всю полезную инфу о проекте

Когда я делал аналитика блокчейна TON, я собрал ссылки, которые бы дал джуну при онбординге:

  1. документация самого TON Blockchain docs.ton.org (как он работает, как понимать архитектуру блокчейна)

  2. ссылки на свои старые блогпосты, где я рассказывал, как работать с TON данными через открытую платформу Dune.com

  3. ссылки на неполную (сори) документацию с описанием таблиц с данными TON на платформе Dune.com

  4. любые другие ссылки, потенциально полезные для рисерча: мб репозитории, другие рисерчи, базы знаний - что угодно

Как собирать? Просто создайте где-нибудь папку, создайте текстовые документы -- и загрузите туда всю инфу. Пока что можно не запариваться с папочками, но лучше создавать как можно больше отдельных файлов.

Шаг 2. Дайте ��римеры рабочих SQL

Все исследования — от OpenAI до Brex — сходятся: 5-10 рабочих SQL с комментариями дают больше, чем описание схемы.

Рабочий запрос — это сжатая документация. Он показывает какие таблицы реально используются, какие JOIN-ы работают, какие фильтры нужны.

Где взять? Потыкайте существующие дашборды, вытащите нетривиальные JOIN-ы и legacy-костыли. Разложите по маленьким файлам с комментариями.

Лайфхак: храните не цельные SQL, а переиспользуемые CTE-блоки (WITH). Как функции в программировании: "как считать баланс", "как классифицировать адреса". Агент будет считывать нужные кусочки и собирать полный запрос сам.

Также если у вас есть удобные view / materialized views стоит написать про них тоже (+ SQL, как они собираются).

Шаг 3. Попросите из этого собрать базу знаний

Когда я пользовался ChatGPT, меня бесило, что приходится каждый раз объяснять одно и то же. Для этого мы и собирали все полезные ссылки и примеры SQL, чтобы больше не повторяться.

Чем меньше мы загружаем в контекст модели, тем больше остается свободного места для полезной работы (при сжатии контекста теряется достаточно много полезной инфы, поэтому модель начинает тупить, а результат становится непредсказуемым). Поэтому важно собрать базу знаний из маленьких текстовых файлов (мини-вики), ссылающихся друг на друга, чтобы AI Агент смог перейти и прочитать то, что релевантно в каждом новом запросе. Ошибка в SQL → пошёл в gotchas → нашёл ответ.

Как хорошо, что можно агента попросить это сделать самостоятельно, а также обновить CLAUDE.md / AGENTS.md, ссылаясь на базу знаний: "анализируешь данные? чекни эту папку".

При каждом новом "задании", агент будет автоматически считывать файл CLAUDE.md (AGENTS.md или другие аналоги), где уже есть ссылки на "читать далее". Запрос про юзеров -- тебе сюда. Запрос про A/B тесты -- вот тут примеры.

Не старайтесь сразу сделать идеально: на первых порах все равно агент будет ошибаться, не находить сразу нужное, а также делать немного не то, что вы хотели бы. Это абсолютно нормально: в конце работы просто попросите его проанализировать чат, выделить тупники, ошибки, а также дополнительные знания, которые вы внесли ему в контекст. И попросите добавить все это в базу знаний.

Если ваша документация в Notion или Confluence — можно работать и там. Но по опыту, обычные .md в папке — самый простой старт.

Шаг 4. Агент улучшает сам себя.

Самое интересное: после каждого анализа агент сталкивается с пробелами в своей документации. Мой агент после одного рисерча сам выписал 8 конкретных правок:

  • "Masterchain nominator pools используют другой code_hash — его нет в референсах"

  • "Multi-hop flow tracing не описан как паттерн — а это частая задача"

  • "Запрос с 3+ CTE JOIN-ами падает по таймауту — нужен gotcha"

Я дал этот файл другому агенту — и тот внёс правки в скилл. Цикл замкнулся: анализ → обнаружение пробелов → улучшение документации → следующий анализ лучше.

Это не fine-tuning. Это просто рабочая документация, которая становится точнее с каждой итерацией.

Читайте логи запуска агента. Если он что-то ищет и не может найти — это cache miss. Либо пересоберите документацию (можно попросить того же агента), либо добавьте то, чего не хватает. Со временем AI будущего, возможно, не потребует такой структуры — но сейчас это заметно улучшает результат.

Упаковываем навык: Skill, а не MCP

Возможно, вы захотите поделиться "документацией" с коллегами. Для этого придумали стандарт Agent Skills.

Если вы слышали про MCP (Model Context Protocol) — это стандарт для подключения внешних сервисов к агентам. Но для аналитика Skill подходит лучше.

MCP загружает описания всех методов в контекст при каждом запуске. 20 методов — все попадут в контекст, даже если вы просто хотите поправить README.

Skillкак раз набор markdown-файлов. В контекст попадает только название и короткое описание. Агент подгружает содержимое, когда задача этого требует. К тому же он работает без привязки к конкретному вендору: хоть локально, хоть ChatGPT Projects или Cursor.

Как сделать скилл из своей вики? Просто попросите это своего агента.

Посмотреть, как я оформил свой скилл можно тут: https://github.com/ohld/ton-analyst Можете использовать его как шаблон, но лучше офф доку https://agentskills.io/.


Мы научили агента писать правильные SQL. Если мы научим его вызывать эти SQL, то случится та самая магия, за которую весь мир и полюбил агентов: он начнет планировать, крутить данные, изучать -- получится полноценный рисерчер. Очень часто для этого не нужно ничего настраивать: если у вас база данных Postgres, агент сможет сам слать туда запросы через консольную утилиту psql.

Что AI-аналитик НЕ может

  • Не понимает бизнес-контекст без объяснения. Не объяснил нюанс - агент додумает сам. Тут либо эврика, либо вообще не то.

  • Нужен человек для интерпретации, а результаты нужно проверять. Особенно на первых итерациях.

  • Ответственность за результат все равно на тебе: за агентом, как и за джуном на первых порах, нужно перепроверять.

Senior-аналитик не заменяется. Он становится 10x продуктивнее.

А если вы джун-аналитик — не паникуйте. AI не заменяет вас, а меняет роль. Учитесь управлять агентами и проверять ответы. Тот, кто это умеет — будет стоить дороже. Остальным соболезную.

Только зарегистрированные пользователи могут участвовать в опросе. Войдите, пожалуйста.
Любимый агент
28.13%Claude Code9
6.25%ChatGPT Codex2
12.5%Cursor4
0%Opencode0
6.25%Другой2
46.88%Не пользуюсь AI Агентами15
Проголосовали 32 пользователя. Воздержались 8 пользователей.