📊 Multi‑LLM Orchestrator v0.6.0: метрики провайдеров и умный роутинг
На этой неделе на Хабре вышла статья про Multi-LLM Orchestrator — библиотеку для работы с российскими LLM через единый интерфейс. Сегодня релиз v0.6.0 добавляет метрики провайдеров и стратегию роутинга на основе health status.
Автоматический сбор метрик
Роутер отслеживает каждый запрос и собирает статистику по провайдерам. Latency, success rate, количество ошибок — всё фиксируется без дополнительной настройки.
from orchestrator import Router from orchestrator.providers import GigaChatProvider, ProviderConfig router = Router(strategy="best-available") router.add_provider(GigaChatProvider( ProviderConfig(name="gigachat", api_key="...", model="GigaChat") )) # После нескольких запросов metrics = router.get_metrics() print(f"{metrics['gigachat'].avg_latency_ms:.0f}ms") print(f"Health: {metrics['gigachat'].health_status}")
Система отслеживает среднюю задержку и rolling average по последним 100 запросам. Если провайдер начинает деградировать, это видно сразу.
Health status провайдеров
Роутер классифицирует каждого провайдера автоматически:
healthy — error rate меньше 30%, стабильная latency
degraded — error rate 30-60% или задержки растут
unhealthy — error rate выше 60%
Классификация происходит на лету, без пороговых значений в конфигах.
Стратегия best-available
Новая стратегия роутинга выбирает провайдера на основе метрик. Приоритет отдаётся healthy-провайдерам, среди них — с минимальной задержкой.
router = Router(strategy="best-available") router.add_provider(gigachat_provider) router.add_provider(yandexgpt_provider) # Роутер выбирает самого здорового и быстрого response = await router.route("Вопрос")
Если GigaChat деградирует до 3 секунд, а YandexGPT стабильно отвечает за 500ms — роутер переключится на YandexGPT.
Тестирование на боевых API
Запущена серия тестов с реальными запросами к GigaChat и YandexGPT. Результаты подтверждают стабильность системы метрик.

Первый тест показал базовую работу: GigaChat отвечает за ~1.7 секунды со 100% success rate. Второй тест проверил fallback при ошибке авторизации — роутер переключился на YandexGPT без потери запроса. Третий тест подтвердил корректность метрик при streaming-запросах.
YandexGPT показал стабильные 500-700ms на серии из шести запросов. GigaChat медленнее (~1.7s), но это ожидаемо для более тяжёлой модели. Success rate обоих провайдеров — 100%.
Structured logging
Каждый запрос логируется в структурированном формате с полями provider, model, latency_ms, streaming, success. Интеграция с Prometheus или Grafana требует только парсинг JSON
# При успехе logger.info("llm_request_completed", extra={ "provider": "gigachat", "latency_ms": 1723 }) # При ошибке logger.warning("llm_request_failed", extra={ "provider": "yandexgpt", "error_type": "RateLimitError" })
Ссылки
PyPI: multi-llm-orchestrator
Статья про v0.5.0: Укрощаем зоопарк API российских LLM
Release Notes: v0.6.0 на GitHub
Следующий релиз (v0.7.0) добавит token-aware метрики: подсчёт токенов, расчёт tokens/s, cost estimation и экспорт в Prometheus.
Если используете российские LLM в production — буду рад обратной связи в комментариях.
