Вспомните, как вы онбордили аналитика: показывали данные, примеры рабочих SQL, неочевидные легаси и костыли — и через какое-то время он начинал перформить самостоятельно.

Чтобы научить AI-агента — нужно пройти ровно те же шаги, только вместо недель, на обучения потратятся часы, а в результате большая часть рутины аналитика будет автоматизирована.
В этой статье я расскажу, как я автоматизировал свой анализ данных, и дам пошаговую инструкцию, которую вы с легкостью сможете повторить это у себя в проекте.
Статья будет полезна как предпринимателям, которые хотят оптимизировать процессы, так и аналитикам, которые хотят прокачать себя. Погнали!
Кто я такой
Меня зовут Даниил Охлопков и я Analytics Lead в TON Foundation. Мне регулярно прилетают разношерстные вопросы о том, что произошло внутри блокчейна, так и вне его: анализ ончейн метрик и доходов приложений, продуктовая аналитика, разметка адресов, поиск и анализ трендов, сеток ботов и всякое разное.
Рассказываю о своём опыте в тг канале.
Почему джуна не уволят (но его роль изменится)
Давайте сразу разберёмся с кликбейт заголовком. AI-агент может быть умнее, быстрее и дешевле, но есть одна вещь, которую умеет только человек — взять ответственность за финальный результат.
Поэтому условный джун никуда не денется, но его роль меняется: вместо того чтобы писать SQL и формулы в Excel, он становится менеджером и ревьюером того, что написал AI. Почти полная автоматизация исследований освобождает заметную часть времени сотрудника. Вы не пишете код — вы проверяете и направляете того, кто пишет его лучше, быстрее и точнее вас.
В разработке ПО этот сдвиг уже произошёл. Многие программисты по всему миру переживают, что из "писателей кода" они превращаются в "менеджеров". Метафора: раньше механик закручивал болты, а теперь управляет целым поездом. Кому-то это не нравится. Но прогресс не остановить — многие компании в Штатах уже обязывают разработчиков использовать AI-инструменты каждый день, так как оказывается, что джун, который научиться работать с AI, перформит на уровне опытного специалиста без AI. И пока "пузырь не лопнул", мы наслаждаемся дешевыми ценами на LLM за счет венчурных денег.
Аналитик ≠ генератор SQL
LLM хорошо пишут SQL — это уже давно не новость. Но этого недостаточно, ведь задача аналитика "извлекать из данных смысл и помогать командам принимать правильные решения".
Именно поэтому AI агент (а не просто вызов LLM автокомплита) подходит для нашей задачи: он сам решает, куда копать дальше. Планирует, выполняет запрос, смотрит на результат, формулирует следующую гипотезу, а в конце - собирает отчет. Как живой аналитик.
Современные AI агенты (Claude Code, OpenAI Codex, Cursor, OpenCode и тп) оснащены всем необходимым для создания рисерчера:
Тулы для работы с терминалом (для чтения файлов и вызывания SQL запросов в базу данных, например, через psql).
Тулы для поиска в интернете (иногда проще загуглить, если недостает знаний).
Современные модели от OpenAI и Anthropic уже достаточно умные из коробки: они насмотрелись на великое множество других данных и гипотез в интернете, поэтому с вашим частным случаем они точно справятся.
Субагенты, планирование, импровизация.
Собираем AI-аналитика: пошаговай гайд
Расскажу на примере, как я собрал блокчейн аналитика, использующего открытые данные TON на публичном даталейке Dune.com. TON - блокчейн с уникальной архитектурой - если агент тут справился, то и с вашим B2B SaaS уж и подавно. :)
TL;DR: по факту мы соберем и правильно положим всю релевантную инфу и инструкции в одном месте, чтобы агент понимал суть проекта и свои задачи.
Нейронки сейчас достаточно умные. Если вы просто дадите AI агенту read-only DATABASE_URL от бд — он прочитает схемы таблиц и сходу сможет писать запросы. Если база простая и нейминг интуитивно понятен, вы будете приятно удивлены возможностями аналитика "из коробки".
Но с ростом проекта нюансов становится ну очень много. Даже кожаного джуна нужно обучать: он не поймет сходу все ваше легаси, специфику данных, неочевидные JOIN-ы и бизнес-логику, закопанную в недрах SQL-запросов вашего DWH. Это же нужно объяснить и AI.
К счастью, если вы уже вели такую документацию — её можно загрузить в агента в качестве контекста. К сожалению, очень мало кто вел и поддерживал актуальность документации до 2026. Хорошая новость: для продуктивной работы с AI агентами это сново в моде, ведь если нормально не объяснить - никто не сможет разобраться, что у вас там происходит.
качество аналитики = качество контекста, который вы даёте агенту.
Шаг 1: Собрать в одном месте всю полезную инфу о проекте
Когда я делал аналитика блокчейна TON, я собрал ссылки, которые бы дал джуну при онбординге:
документация самого TON Blockchain docs.ton.org (как он работает, как понимать архитектуру блокчейна)
ссылки на свои старые блогпосты, где я рассказывал, как работать с TON данными через открытую платформу Dune.com
ссылки на неполную (сори) документацию с описанием таблиц с данными TON на платформе Dune.com
любые другие ссылки, потенциально полезные для рисерча: мб репозитории, другие рисерчи, базы знаний - что угодно
Как собирать? Просто создайте где-нибудь папку, создайте текстовые документы -- и загрузите туда всю инфу. Пока что можно не запариваться с папочками, но лучше создавать как можно больше отдельных файлов.
Шаг 2. Дайте ��римеры рабочих SQL
Все исследования — от OpenAI до Brex — сходятся: 5-10 рабочих SQL с комментариями дают больше, чем описание схемы.
Рабочий запрос — это сжатая документация. Он показывает какие таблицы реально используются, какие JOIN-ы работают, какие фильтры нужны.
Где взять? Потыкайте существующие дашборды, вытащите нетривиальные JOIN-ы и legacy-костыли. Разложите по маленьким файлам с комментариями.
Лайфхак: храните не цельные SQL, а переиспользуемые CTE-блоки (WITH). Как функции в программировании: "как считать баланс", "как классифицировать адреса". Агент будет считывать нужные кусочки и собирать полный запрос сам.
Также если у вас есть удобные view / materialized views стоит написать про них тоже (+ SQL, как они собираются).
Шаг 3. Попросите из этого собрать базу знаний
Когда я пользовался ChatGPT, меня бесило, что приходится каждый раз объяснять одно и то же. Для этого мы и собирали все полезные ссылки и примеры SQL, чтобы больше не повторяться.
Чем меньше мы загружаем в контекст модели, тем больше остается свободного места для полезной работы (при сжатии контекста теряется достаточно много полезной инфы, поэтому модель начинает тупить, а результат становится непредсказуемым). Поэтому важно собрать базу знаний из маленьких текстовых файлов (мини-вики), ссылающихся друг на друга, чтобы AI Агент смог перейти и прочитать то, что релевантно в каждом новом запросе. Ошибка в SQL → пошёл в gotchas → нашёл ответ.
Как хорошо, что можно агента попросить это сделать самостоятельно, а также обновить CLAUDE.md / AGENTS.md, ссылаясь на базу знаний: "анализируешь данные? чекни эту папку".
При каждом новом "задании", агент будет автоматически считывать файл CLAUDE.md (AGENTS.md или другие аналоги), где уже есть ссылки на "читать далее". Запрос про юзеров -- тебе сюда. Запрос про A/B тесты -- вот тут примеры.
Не старайтесь сразу сделать идеально: на первых порах все равно агент будет ошибаться, не находить сразу нужное, а также делать немного не то, что вы хотели бы. Это абсолютно нормально: в конце работы просто попросите его проанализировать чат, выделить тупники, ошибки, а также дополнительные знания, которые вы внесли ему в контекст. И попросите добавить все это в базу знаний.
Если ваша документация в Notion или Confluence — можно работать и там. Но по опыту, обычные .md в папке — самый простой старт.
Шаг 4. Агент улучшает сам себя.
Самое интересное: после каждого анализа агент сталкивается с пробелами в своей документации. Мой агент после одного рисерча сам выписал 8 конкретных правок:
"Masterchain nominator pools используют другой code_hash — его нет в референсах"
"Multi-hop flow tracing не описан как паттерн — а это частая задача"
"Запрос с 3+ CTE JOIN-ами падает по таймауту — нужен gotcha"
Я дал этот файл другому агенту — и тот внёс правки в скилл. Цикл замкнулся: анализ → обнаружение пробелов → улучшение документации → следующий анализ лучше.
Это не fine-tuning. Это просто рабочая документация, которая становится точнее с каждой итерацией.
Читайте логи запуска агента. Если он что-то ищет и не может найти — это cache miss. Либо пересоберите документацию (можно попросить того же агента), либо добавьте то, чего не хватает. Со временем AI будущего, возможно, не потребует такой структуры — но сейчас это заметно улучшает результат.
Упаковываем навык: Skill, а не MCP
Возможно, вы захотите поделиться "документацией" с коллегами. Для этого придумали стандарт Agent Skills.
Если вы слышали про MCP (Model Context Protocol) — это стандарт для подключения внешних сервисов к агентам. Но для аналитика Skill подходит лучше.
MCP загружает описания всех методов в контекст при каждом запуске. 20 методов — все попадут в контекст, даже если вы просто хотите поправить README.
Skill — как раз набор markdown-файлов. В контекст попадает только название и короткое описание. Агент подгружает содержимое, когда задача этого требует. К тому же он работает без привязки к конкретному вендору: хоть локально, хоть ChatGPT Projects или Cursor.
Как сделать скилл из своей вики? Просто попросите это своего агента.
Посмотреть, как я оформил свой скилл можно тут: https://github.com/ohld/ton-analyst Можете использовать его как шаблон, но лучше офф доку https://agentskills.io/.
Мы научили агента писать правильные SQL. Если мы научим его вызывать эти SQL, то случится та самая магия, за которую весь мир и полюбил агентов: он начнет планировать, крутить данные, изучать -- получится полноценный рисерчер. Очень часто для этого не нужно ничего настраивать: если у вас база данных Postgres, агент сможет сам слать туда запросы через консольную утилиту psql.
Что AI-аналитик НЕ может
Не понимает бизнес-контекст без объяснения. Не объяснил нюанс - агент додумает сам. Тут либо эврика, либо вообще не то.
Нужен человек для интерпретации, а результаты нужно проверять. Особенно на первых итерациях.
Ответственность за результат все равно на тебе: за агентом, как и за джуном на первых порах, нужно перепроверять.
Senior-аналитик не заменяется. Он становится 10x продуктивнее.
А если вы джун-аналитик — не паникуйте. AI не заменяет вас, а меняет роль. Учитесь управлять агентами и проверять ответы. Тот, кто это умеет — будет стоить дороже. Остальным соболезную.
