Обновить

OpenClaw: поговорим о конкретике

Недавно нырнул в OpenClaw — фреймворк для локального развертывания LLM-агентов с открытым кодом. Прочитал десяток статей о настройке, но половина не воспроизводилась: устаревшие версии, битые зависимости или Docker-ограничения. В итоге пришлось собирать стек с нуля самостоятельно. Сразу скажу, что Mac MINI вам не нужен. Docker сразу отверг — хотел полную свободу , плюс были ограничения памяти. Выбрал VPS с 1 ГБ RAM + 3 ГБ swap (хватило для Mistral-medium-latest). Если вы тоже экспериментируете с бесплатными моделями (а через API провайдеры дают до 5$ в месяц), то вот рабочая схема из моих свежих тестов.

Развертывание без Docker. Установил на Ubuntu 22.04 LTS (актуально на февраль 2026).

Пайплайн: Perplexity Agent (для экономии токенов) + Mistral-medium-last

OpenClaw по умолчанию жрет токены как слон — особенно на длинных запросах. Мой хак: цепочка агентов.

  1. Входной запрос → Perplexity Agent (он уже дает хорошее качество на фактах/анализе, меньше галлюцинаций).

  2. Пересылка в Mistral-medium-latest для финальной суммаризации.

  3. Выдача сжатого ответа.

Пример базового рабочего конфига:

{
  "meta": {
    "lastTouchedVersion": "2026.2.19-2",
    "lastTouchedAt": "2026-02-21T19:43:03.966Z"
  },
  "models": {
    "providers": {
      "Mistral": {
        "baseUrl": "https://api.mistral.ai/v1",
        "apiKey": "YOUR_KEY",
        "auth": "token",
        "api": "openai-completions",
        "authHeader": true,
        "models": [
          {
            "id": "mistral-medium-latest",
            "name": "mistral-medium-latest",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 128000,
            "maxTokens": 8192
          }
        ]
      }
    }
  },
  "agents": {
    "defaults": {
      "model": {
        "primary": "Mistral/mistral-medium-latest"
      },
      "memorySearch": {
        "enabled": false
      },
      "compaction": {
        "mode": "safeguard"
      }
    }
  },
  "commands": {
    "native": "auto",
    "nativeSkills": "auto",
    "restart": true
  },
  "channels": {
    "telegram": {
      "enabled": true,
      "dmPolicy": "pairing",
      "botToken": "YOUR TG TOKEN",
      "groups": {
        "*": {
          "requireMention": true
        }

Результат: токены сократились на 35–45%. Perplexity берет "грязную" работу, Mistral полирует.

Также в Openclaw можно подключить дополнительные модели работает через Fallbacks спасают от 429: если primary down, OpenClaw сам переключается на другую модель.

Естественно управление через Telegram-бот, но можно и через GUI (менее удобно).

Пример поиска perplexity_agent.py:

#!/usr/bin/env python3
from perplexity import Perplexity
import logging
import sys

# Добавляем путь к библиотеке (если требуется)
sys.path.append("/usr/local/lib/python3.8/dist-packages")

# Настройка логирования
logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s - %(message)s')
logger = logging.getLogger(__name__)

# Инициализация клиента Perplexity
PERPLEXITY_API_KEY = "pplx-YOUR KEY"
client = Perplexity(api_key=PERPLEXITY_API_KEY)

def ask_perplexity_agent(question: str) -> str:
    """Агентный поиск через Perplexity с использованием preset="pro-search"."""
    try:
        logger.info(f"Доступные методы клиента: {dir(client)}")
        logger.info(f"Выполняю агентный поиск: {question}")
        import inspect
        logger.info(f"Сигнатура search.create: {inspect.signature(client.search.create)}")
        response = client.search.create(query=question)  # Пробуем параметр query

        print(f"Full response: {response}")  # Debug: выводим полный ответ
        if hasattr(response, 'output_text') and response.output_text:
            result = f"Результат агентного поиска:\n\n{response.output_text}"
    

А какие skills вы используете? Обсудим?

Теги:
+1
Комментарии3

Публикации