Я проанализировал 14 новых скиллов для Claude Code Orchestrator Kit. 5 из них критически полезны и уже интегрированы с агентами. Главный герой — systematic-debugging — методология систематического дебага вместо хаотичного "угадывания" фиксов. В статье — подробный разбор архитектуры, код, практическая интеграция с агентами.
Контекст: Игорь Масленников
Я в IT с 2013 года. Последние 2 года активно развиваю AI-направление в DNA IT (AI Dev Team). Результат: клиенты всё чаще выбирают AI-отдел вместо традиционных команд разработчиков. Причина простая — быстрее (1-2 недели вместо 2-3 месяцев), дешевле (-80% затрат), качественнее (автоматизированные проверки).
Всё, о чём я пишу, — протестировано на реальных клиентских проектах. Никакой теории ради теории. Только практика.
Проблема: Хаотичный дебаг и "угадывание" фиксов
Классическая ситуация:
Баг обнаружен
Разработчик смотрит на код
"Наверное, проблема здесь"
Чинит
Запускает тесты
Не работает
"Тогда, может быть, проблема в другом месте"
Чинит снова
Повторяет N раз до победы
Знакомо? Я называю это "угадывание фиксов" (guess-and-check debugging).
Почему это плохо?
Тратится время: Каждая итерация = минуты (или часы для сложных багов)
Нет понимания root cause: Чинишь симптомы, а не причину
Технический долг растёт: Фиксы накладываются друг на друга без системного анализа
После 3-го фикса: Понимаешь, что проблема в архитектуре, а не в конкретном файле
Ещё хуже в AI-ассистированной разработке:
Claude Code пытается починить баг → фикс не работает
Пытается снова → фикс частично работает
Пытается третий раз → контекст переполняется
В итоге: баг не починен, контекст сожжён
Я столкнулся с этим на клиентских проектах. Агент bug-fixer умел находить баги, но не умел системно их чинить. Результат — 50% багов чинились с первой попытки, остальные требовали N итераций.
Нужна была методология, а не просто "попробуй ещё раз".
Решение: systematic-debugging Skill
В декабре 2025 я проанализировал 14 новых скиллов, доступных в Claude Code. Среди них был systematic-debugging — методология систематического дебага вместо "угадывания" фиксов.
Что это такое?
Systematic-debugging — это скилл (не агент!), который содержит:
Структурированный 4-фазный процесс дебага
Правило "3 фикса = пересмотр архитектуры"
Методологию трассировки данных в многокомпонентных системах
Decision tree для выбора подхода
Разница между скиллом и агентом:
✅ Скилл: Переиспользуемая утилита (<100 строк), stateless, вызывается через
Skilltool✅ Агент: Изолированный контекст, stateful, вызывается через
Tasktool
Скиллы — это knowledge base + execution logic, которые агенты используют для выполнения специфических задач.
Архитектура: 4 фазы systematic-debugging
Фаза 1: Root Cause Analysis
Цель: Понять причину бага, а не симптом.
Методология:
Reproduce the bug:
Создать минимальный воспроизводимый пример
Записать точные шаги воспроизведения
Определить окружение (OS, версии, конфигурация)
Trace data flow:
Проследить путь данных от входа до ошибки
Найти точку, где данные становятся некорректными
Использовать breakpoints / логи / assertions
Identify root cause:
НЕ чинить симптом ("null check тут решит проблему")
Понять, почему данные стали null
Проверить upstream: откуда приходят данные?
Пример (из реального клиентского проекта):
// ❌ WRONG: Чинит симптом function processUser(user: User | null) { if (!user) { console.error('User is null'); return; } // ... } // ✅ RIGHT: Чинит root cause // Проблема была в async/await: // fetchUser() возвращал Promise<User>, но мы не ждали resolve async function processUser(userId: string) { const user = await fetchUser(userId); // Теперь ждём // ... }
Правило: Если не уверен в root cause — НЕ чини. Сначала понимание, потом фикс.
Фаза 2: Pattern Analysis
Цель: Понять, это изолированный баг или системная проблема.
Вопросы:
Сколько мест затронуто?
Одна функция → локальный фикс
5+ файлов → системная проблема
Есть ли похожие баги в истории?
git log --grep="similar issue"(искать похожие фиксы)Если да — это pattern, а не одноразовый баг
Нарушена ли архитектурная граница?
Например: компонент UI напрямую работает с БД (минуя API)
Или: бизнес-логика в контроллере вместо сервисного слоя
Правило "3 фикса = пересмотр архитектуры":
Если для фикса нужно изменить 3+ файла в разных модулях — это сигнал:
❌ НЕ чини каждый файл отдельно
✅ Пересмотри архитектуру: возможно, нужен рефакторинг
Пример (из реального проекта):
Баг: "Валидация email не работает в 3 местах" Плохое решение: - Добавить регулярку в компонент A - Добавить регулярку в компонент B - Добавить регулярку в компонент C Хорошее решение: - Создать @/lib/validators/email.ts - Использовать валидатор во всех 3 компонентах - Добавить тесты для валидатора Результат: 1 источник правды вместо 3 копий
Фаза 3: Hypothesis Generation
Цель: Сформулировать проверяемую гипотезу о причине бага.
Структура гипотезы:
Hypothesis: The bug occurs because [specific technical reason]. Evidence: - [Observation 1]: [What you saw in logs/code] - [Observation 2]: [What you saw in tests] Prediction: If I [specific change], then [expected outcome]. Validation: Test by [specific test case].
Пример (реальный баг в Supabase-проекте):
Hypothesis: The "undefined is not a function" error occurs because supabase.auth.getSession() returns null when user is logged out, and we call .data.session.user without null-check. Evidence: - Error stack trace points to auth.ts:42 - Error happens ONLY when user is logged out - getSession() docs say: returns null if no session Prediction: If I add optional chaining (?.), the error will disappear. Validation: Test: Log out user → navigate to /profile → should not crash
Правило: Гипотеза должна быть проверяемой (testable). Если не можешь написать тест — гипотеза слишком расплывчатая.
Фаза 4: Implementation & Verification
Цель: Применить фикс, проверить, что он работает, убедиться, что не сломал ничего другого.
Шаги:
Implement fix (based on hypothesis)
Run targeted test (the one from hypothesis)
Run full test suite (regression check)
Manual verification (if applicable)
Code review self-check (did I follow best practices?)
Quality gates (обязательные):
# 1. Type-check pnpm type-check # 2. Build pnpm build # 3. Tests pnpm test # 4. Lint (optional, but recommended) pnpm lint
Если хотя бы один gate провалился — фикс откатывается.
Правило: Фикс НЕ считается завершённым, пока все quality gates не пройдены.
Интеграция: Как systematic-debugging работает с bug-fixer агентом
До интеграции
bug-fixer агент (старая версия):
## Phase 2: Implement Fixes For each bug from plan file: 1. Read bug description 2. Locate affected files 3. Implement fix 4. Run type-check 5. If failed: try again
Проблема: Нет методологии. Агент пытается починить баг напрямую, без анализа root cause.
Результат: 50% багов чинятся с первой попытки, остальные требуют N итераций.
После интеграции
bug-fixer агент (новая версия с systematic-debugging):
## Phase 2: Apply Systematic Debugging **CRITICAL**: Use `systematic-debugging` Skill BEFORE implementing fix. ### Step 1: Root Cause Analysis (Skill Phase 1) - Reproduce the bug (create minimal example) - Trace data flow (from input to error) - Identify root cause (NOT symptom) ### Step 2: Pattern Analysis (Skill Phase 2) - Check: How many files affected? - 1 file → proceed with fix - 3+ files → STOP, report "architectural issue" - Search git history for similar bugs - Verify architectural boundaries ### Step 3: Hypothesis Generation (Skill Phase 3) - Formulate hypothesis (technical reason) - Gather evidence (logs, stack trace, code) - Predict outcome (if I change X, then Y) - Define validation test ### Step 4: Implementation (Skill Phase 4) - Implement fix based on hypothesis - Run targeted test (from hypothesis) - Run quality gates (type-check + build + tests) - If ANY gate failed: rollback, report failure **Quality Gate Rules**: - ✅ All gates passed → proceed to Phase 3 - ❌ Any gate failed → rollback changes, mark bug as "failed", report to orchestrator
Что изменилось:
Структура: Вместо "попробуй починить" → 4-фазный процесс
Правило "3 фикса": Автоматическая эскалация архитектурных проблем
Гипотеза: Агент формулирует проверяемую гипотезу перед фиксом
Rollback: Автоматический откат при провале quality gates
Практический пример: /health-bugs workflow
Команда: /health-bugs
Workflow:
1. bug-orchestrator (создаёт план) ↓ 2. bug-hunter (сканирует код, находит баги) ↓ 3. bug-orchestrator (валидирует отчёт) ↓ 4. bug-fixer (+ systematic-debugging) → ЧИНИТ БАГИ СИСТЕМНО ↓ 5. Quality gates (type-check + build + tests) ↓ 6. Verification phase (повторный запуск bug-hunter) ↓ 7. Итерация (если баги остались: шаг 4-6 снова) ↓ 8. Final summary
Ключевое отличие: На шаге 4 агент bug-fixer теперь использует systematic-debugging Skill, а не просто "чинит напрямую".
Результат (на реальных проектах):
До интеграции: 50% багов с первой попытки, 3-5 итераций для сложных багов
После интеграции: 85% багов с первой попытки, 1-2 итерации для сложных багов
Контекст: Экономия ~30% контекста (меньше итераций = меньше токенов)
Другие критически полезные скиллы
Помимо systematic-debugging, я интегрировал ещё 4 скилла:
2. senior-devops: CI/CD как код
Назначение: CI/CD pipelines, Terraform, Kubernetes, deployment strategies.
Ключевые компоненты:
Pipeline Generator: Создание GitHub Actions / GitLab CI / Jenkins pipelines
Terraform Scaffolder: Генерация IaC для AWS/GCP/Azure
Deployment Manager: Blue-green / canary / rolling deployments
Интеграция: Используется агентом deployment-engineer.
Пример (генерация GitHub Actions workflow):
# Генерируется senior-devops Skill name: CI/CD Pipeline on: push: branches: [main] pull_request: branches: [main] jobs: quality-gates: runs-on: ubuntu-latest steps: - uses: actions/checkout@v3 - uses: pnpm/action-setup@v2 - run: pnpm install --frozen-lockfile - run: pnpm type-check - run: pnpm build - run: pnpm test deploy: needs: quality-gates if: github.ref == 'refs/heads/main' runs-on: ubuntu-latest steps: - name: Deploy to production run: | # Deployment script (blue-green strategy) ./scripts/deploy.sh --strategy=blue-green
Почему полезно:
Референсы по IaC: Best practices для Terraform / Pulumi
Deployment strategies: Готовые паттерны для blue-green / canary
Security: Проверка секретов, scan контейнеров
3. senior-prompt-engineer: Оптимизация промптов
Назначение: LLM optimization, prompt patterns, RAG, agent orchestration.
Ключевые компоненты:
Prompt Optimizer: Улучшение промптов для точности и эффективности
RAG Evaluator: Оценка качества Retrieval-Augmented Generation
Agent Design Patterns: Паттерны для agentic систем
Интеграция: Используется агентом meta-agent-v3 (создание новых агентов).
Пример (оптимизация промпта):
До оптимизации:
You are a code reviewer. Review the code.
После оптимизации (senior-prompt-engineer):
You are a Senior Code Reviewer specialized in TypeScript/React. **Your responsibilities:** 1. Check for type safety issues (any types, missing null checks) 2. Identify performance bottlenecks (unnecessary re-renders, memory leaks) 3. Verify architectural boundaries (UI components should not call DB directly) 4. Suggest improvements (code quality, readability, maintainability) **Output format:** - Severity: Critical | High | Medium | Low - Issue: [Brief description] - Location: [File:line] - Suggestion: [How to fix]
Разница:
�� Структура: Чёткие обязанности вместо "review the code"
✅ Специализация: TypeScript/React вместо generic
✅ Формат вывода: Стандартизированный формат отчёта
Результат: Агенты создают более точные и более полезные промпты для новых агентов.
4. webapp-testing: E2E тестирование через Playwright
Назначение: Тестирование веб-приложений через Playwright.
Ключевые компоненты:
with_server.py: Управление серверами (запуск/остановка)
Reconnaissance-then-action pattern: Сначала исследуй UI, потом действуй
Decision tree: Выбор подхода (CSS selectors vs text content vs ARIA labels)
Интеграция: Используется после агента test-writer в test workflow.
Пример (Playwright тест):
// Генерируется webapp-testing Skill import { test, expect } from '@playwright/test'; test('User login flow', async ({ page }) => { // Phase 1: Reconnaissance await page.goto('http://localhost:3000/login'); const loginForm = page.locator('form[data-testid="login-form"]'); expect(loginForm).toBeVisible(); // Phase 2: Action await page.fill('input[name="email"]', 'test@example.com'); await page.fill('input[name="password"]', 'password123'); await page.click('button[type="submit"]'); // Phase 3: Verification await expect(page).toHaveURL(/dashboard/); const welcomeMessage = page.locator('h1:has-text("Welcome")'); expect(welcomeMessage).toBeVisible(); });
Decision tree (когда использовать какой селектор):
IF element has data-testid → use data-testid (most stable) ELSE IF element has unique ARIA label → use ARIA (accessible) ELSE IF element has unique text → use text content (readable) ELSE use CSS selector (least stable, but works)
Почему полезно:
E2E покрытие: Тестирование реального user flow
Regression detection: Ловит UI-баги до продакшена
Integration: Работает с MCP Playwright сервером
5. code-reviewer (skill): Автоматизированный code review
Назначение: Автоматизированный code review с чек-листами и best practices.
Ключевые компоненты:
PR Analyzer: Анализ pull request (scope, risk, complexity)
Code Quality Checker: Проверка антипаттернов, code smells
Review Report Generator: Стандартизированный отчёт
Интеграция: Объединён с агентом code-reviewer (agent).
Важная деталь:
✅ Скилл: Содержит knowledge base (чек-листы, антипаттерны, best practices)
✅ Агент: Содержит execution logic (как читать PR, как генерировать отчёт)
✅ Связь: Агент ссылается на скилл для получения knowledge base
Пример (чек-лист из code-reviewer Skill):
## TypeScript Code Review Checklist ### Type Safety - [ ] No `any` types (use `unknown` or specific types) - [ ] All function parameters have types - [ ] Return types explicitly declared (no implicit `any`) - [ ] Null checks for nullable values (`user?.name` or `if (user)`) ### Performance - [ ] No unnecessary re-renders (React.memo, useMemo, useCallback) - [ ] Async operations properly handled (loading states, error handling) - [ ] Large lists virtualized (react-window or similar) ### Architecture - [ ] UI components do NOT call database directly (use API layer) - [ ] Business logic NOT in controllers (use service layer) - [ ] Separation of concerns (UI, logic, data) ### Security - [ ] No hardcoded credentials (use env vars) - [ ] User input sanitized (SQL injection, XSS prevention) - [ ] Authentication/authorization checks
Результат: Агент code-reviewer генерирует детальные отчёты на основе этого чек-листа.
План интеграции: Связь скиллов с агентами
Фаза 1: Связать скиллы с агентами
bug-fixer agent └── references: systematic-debugging skill deployment-engineer agent └── references: senior-devops skill code-reviewer agent └── references: code-reviewer skill (merge knowledge) meta-agent-v3 agent └── references: senior-prompt-engineer skill
Как это работает:
В промпте агента добавляется ссылка на скилл:
## Phase 2: Execute Work **CRITICAL**: Before implementing fix, apply `systematic-debugging` Skill. Follow Skill phases: 1. Root Cause Analysis 2. Pattern Analysis 3. Hypothesis Generation 4. Implementation & Verification Refer to `systematic-debugging` Skill for detailed methodology.
Преимущества:
Consistency: Все агенты используют одну методологию
Maintainability: Обновил скилл → обновились все агенты
Clarity: Агенты фокусируются на execution, скиллы — на knowledge
Фаза 2: Добавить в workflows
/health-bugs workflow: bug-hunter → bug-fixer (+ systematic-debugging) → verify Test workflow: test-writer → webapp-testing → verify Code review workflow: code-reviewer (agent + skill) → report
Пример: /health-bugs с systematic-debugging
До интеграции:
bug-hunter находит 20 багов ↓ bug-fixer чинит все 20 за раз ↓ Результат: 10 исправлено, 10 провалено, контекст переполнен
После интеграции:
bug-hunter находит 20 багов ↓ bug-fixer чинит по приоритету (critical → high → medium → low) ↓ Для КАЖДОГО бага: systematic-debugging (4 фазы) ↓ Quality gates после каждого фикса ↓ Rollback при провале ↓ Результат: 17 исправлено, 3 эскалировано как "архитектурные проблемы"
Ключевое отличие: Systematic-debugging эскалирует архитектурные проблемы вместо бесконечных попыток фикса.
Фаза 3: Cleanup (что НЕ интегрировал)
Из 14 новых скиллов я НЕ интегрировал:
move-code-quality: Нишевый язык (Move blockchain), не наш tech stack
lead-research-assistant: Sales/BD, не связан с разработкой
ux-researcher-designer: UX research, не для CLI toolkit
content-research-writer: Дублирует article-writer-multi-platform
Причина: Засоряют список скиллов, не приносят ценности для orchestrator kit.
Рекомендация: Оставить для специфических use cases (creative проекты, marketing).
Выводы и метрики
Что я получил от интеграции
Скиллы интегрированы: 5 (systematic-debugging, senior-devops, senior-prompt-engineer, webapp-testing, code-reviewer)
Агенты улучшены: 4 (bug-fixer, deployment-engineer, meta-agent-v3, code-reviewer)
Метрики (на реальных проектах):
Метрика | До интеграции | После интеграции | Изменение |
|---|---|---|---|
Баги исправлены с 1-й попытки | 50% | 85% | +35% |
Средние итерации на баг | 3-5 | 1-2 | -60% |
Контекст на фикс (токены) | ~15K | ~10K | -33% |
Эскалация архитектурных проблем | 0% (чинили вручную) | 15% (автоматическая) | +15% |
Ключевое улучшение:
Systematic-debugging сократил "угадывание фиксов" на 60%
Senior-devops стандартизировал CI/CD (раньше каждый проект — уникальный workflow)
Senior-prompt-engineer улучшил качество новых агентов (создаваемых meta-agent-v3)
Webapp-testing добавил E2E покрытие (раньше только unit-тесты)
Что дальше?
Планы:
Интеграция с health workflows: Добавить systematic-debugging в
/health-securityи/health-depsAutomatic skill selection: Meta-agent-v3 автоматически выбирает релевантные скиллы при создании агента
Skill versioning: Отслеживание версий скиллов (для обратной совместимости)
Открытые вопросы:
Как обрабатывать конфликты скиллов? (Например, 2 скилла для одной задачи)
Стоит ли создавать skill marketplace? (Community-contributed skills)
Как измерять ROI скиллов? (Какие метрики важны?)
Установка и начало работы
NPM установка:
npm install -g claude-code-orchestrator-kit # или npx claude-code-orchestrator-kit
Ручная установка:
git clone https://github.com/maslennikov-ig/claude-code-orchestrator-kit.git cd claude-code-orchestrator-kit cp .env.example .env.local # Настроить credentials ./switch-mcp.sh # Выбрать MCP конфигурацию # Перезапустить Claude Code
Первые шаги:
Скопировать
.claude/в ваш проектСкопировать
mcp/конфигурацииСкопировать
CLAUDE.md(behavioral OS)Настроить
.env.localЗапустить
./switch-mcp.sh→ выбрать BASEПерезапустить Claude Code
Попробовать
/health-bugsдля проверки
Проверка интеграции systematic-debugging:
# Запустить /health-bugs workflow /health-bugs # Наблюдать: # 1. bug-hunter находит баги # 2. bug-fixer применяет systematic-debugging (4 фазы) # 3. Quality gates после каждого фикса # 4. Эскалация архитектурных проблем (если 3+ файла)
Обратная связь
📱 Telegram
Канал: https://t.me/maslennikovigor
Заходите, читайте мои мысли и статьи. Я пишу не часто, но когда пишу — это того стоит.
Прямой контакт: https://t.me/maslennikovig
Нужно поговорить? Пишите напрямую. Всегда рад общению.
GitHub Issues: https://github.com/maslennikov-ig/claude-code-orchestrator-kit/issues (для багов, фич)
Дополнительные ресурсы
Репозиторий: https://github.com/maslennikov-ig/claude-code-orchestrator-kit
Документация по архитектуре:
docs/Agents Ecosystem/ARCHITECTURE.mdРуководство по оркестрации:
docs/Agents Ecosystem/AGENT-ORCHESTRATION.mdОтчёт об анализе скиллов:
docs/reports/skills/new-skills-analysis-2025-12.mdЛицензия: MIT (полностью бесплатно для коммерческого использования)
