OpenClaw: поговорим о конкретике
Недавно нырнул в OpenClaw — фреймворк для локального развертывания LLM-агентов с открытым кодом. Прочитал десяток статей о настройке, но половина не воспроизводилась: устаревшие версии, битые зависимости или Docker-ограничения. В итоге пришлось собирать стек с нуля самостоятельно. Сразу скажу, что Mac MINI вам не нужен. Docker сразу отверг — хотел полную свободу , плюс были ограничения памяти. Выбрал VPS с 1 ГБ RAM + 3 ГБ swap (хватило для Mistral-medium-latest). Если вы тоже экспериментируете с бесплатными моделями (а через API провайдеры дают до 5$ в месяц), то вот рабочая схема из моих свежих тестов.
Развертывание без Docker. Установил на Ubuntu 22.04 LTS (актуально на февраль 2026).
Пайплайн: Perplexity Agent (для экономии токенов) + Mistral-medium-last
OpenClaw по умолчанию жрет токены как слон — особенно на длинных запросах. Мой хак: цепочка агентов.
Входной запрос → Perplexity Agent (он уже дает хорошее качество на фактах/анализе, меньше галлюцинаций).
Пересылка в Mistral-medium-latest для финальной суммаризации.
Выдача сжатого ответа.
Пример базового рабочего конфига:
{ "meta": { "lastTouchedVersion": "2026.2.19-2", "lastTouchedAt": "2026-02-21T19:43:03.966Z" }, "models": { "providers": { "Mistral": { "baseUrl": "https://api.mistral.ai/v1", "apiKey": "YOUR_KEY", "auth": "token", "api": "openai-completions", "authHeader": true, "models": [ { "id": "mistral-medium-latest", "name": "mistral-medium-latest", "reasoning": false, "input": [ "text" ], "cost": { "input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0 }, "contextWindow": 128000, "maxTokens": 8192 } ] } } }, "agents": { "defaults": { "model": { "primary": "Mistral/mistral-medium-latest" }, "memorySearch": { "enabled": false }, "compaction": { "mode": "safeguard" } } }, "commands": { "native": "auto", "nativeSkills": "auto", "restart": true }, "channels": { "telegram": { "enabled": true, "dmPolicy": "pairing", "botToken": "YOUR TG TOKEN", "groups": { "*": { "requireMention": true }
Результат: токены сократились на 35–45%. Perplexity берет "грязную" работу, Mistral полирует.
Также в Openclaw можно подключить дополнительные модели работает через Fallbacks спасают от 429: если primary down, OpenClaw сам переключается на другую модель.
Естественно управление через Telegram-бот, но можно и через GUI (менее удобно).
Пример поиска perplexity_agent.py:
#!/usr/bin/env python3 from perplexity import Perplexity import logging import sys # Добавляем путь к библиотеке (если требуется) sys.path.append("/usr/local/lib/python3.8/dist-packages") # Настройка логирования logging.basicConfig(level=logging.INFO, format='%(asctime)s - %(levelname)s - %(message)s') logger = logging.getLogger(__name__) # Инициализация клиента Perplexity PERPLEXITY_API_KEY = "pplx-YOUR KEY" client = Perplexity(api_key=PERPLEXITY_API_KEY) def ask_perplexity_agent(question: str) -> str: """Агентный поиск через Perplexity с использованием preset="pro-search".""" try: logger.info(f"Доступные методы клиента: {dir(client)}") logger.info(f"Выполняю агентный поиск: {question}") import inspect logger.info(f"Сигнатура search.create: {inspect.signature(client.search.create)}") response = client.search.create(query=question) # Пробуем параметр query print(f"Full response: {response}") # Debug: выводим полный ответ if hasattr(response, 'output_text') and response.output_text: result = f"Результат агентного поиска:\n\n{response.output_text}"
А какие skills вы используете? Обсудим?
