Было время, когда платили разработчикам за создание сайтов. Потом появились конструкторы типа WordPress. И WP с его многочисленными плагинами стал золотым стандартом для создания сайтов и лендингов.

Но пришел OpenClaw и все поменялось. Теперь своим зоопарком лендингов я управляю через TG бота:

  • Убери с сайта X вот это

  • Добавь на сайт Y вот то

  • Поменяй стиль сайта Z на …

  • Создай новую страничку для …

  • Убери все товары/услуги типа “…”

  • Откати последние изменения на сайте XM

  • Замени иконку на сайте XS на более современную

  • Собери статистику по заполнению форм с сайтов X, Y, Z в формате

В этой статье поделюсь как настроить OpenClaw для управления всеми своими лендингами.

Шаг 1

Берем VPS/VDS. c Ubuntu >= 22.04. Если сайтов мало и они простые (одностраничники), то VPS с RAM >= 3 GB RAM. CPU здесь вообще почти не имеет значения.

Шаг 2

Накатываем одну из версий OpenClaw. Не буду тут расписывать каждый выберем сам какую, уже много есть tutorial по этой теме. Я лично использую nanobot, на его примере и буду показывать, но суть везде одна.

Тут же прописываем наш token TG бота, и ставим там ограниченный AllowList, чтобы только дозволенные nicknames могли управлять этим ботом.

И модель обязательно ставим от gpt-5.2 и выше, лучше gpt-5.3-codex (или аналоги).

Важно, эту версию ставим как system daemon, с правами sudo. Это будет наш бот для создания и управления всеми сайтами:

sudo nano /etc/systemd/system/nanobot-gateway.service

Содержание файлы сервиса:

[Unit]
Description=SiteBot
After=network.target
Wants=network-online.target
[Service]
Type=simple
User=root
Group=root
ExecStart=%h/.local/bin/nanobot gateway
Restart=always
RestartSec=10
ProtectSystem=yes   

# Resource limits
MemoryHigh=1G
MemoryMax=2G
MemorySwapMax=0

[Install]
WantedBy=multi-user.target

Параметр ProtectSystem=yes позволит вам защитить систему от разрушения неверными командами OpenClaw. Можете сделать этот параметр еще жестче.

Потом выполняем:

sudo systemctl daemon-reload
sudo systemctl enable --now nanobot gateway
sudo systemctl start nanobot-gateway

У нас есть бот, который может все делать. Все дальнейшие шаги можно сделать через TG бота. Но для тех, кто любит собрать все детали сам, ниже предоставлены инструкции.

Шаг 3

Настроим playwright, чтобы он мог видеть наш OpenClaw сайты через браузер. Это важно для автотестирования изменений и откатов.

Устанавливаем nodejs:

curl -fsSL https://deb.nodesource.com/setup_lts.x | sudo -E bash -
sudo apt install -y nodejs

Проверяем версию:

node --version  # Должно быть v20.x или v22.x
npm --version   # 10.x+

Устанавливаем playwright и браузеры с зависимостями:

npm install @playwright/mcp@latest
npx playwright install --with-deps

Прописываем playwright как mcp tool в config нашего OpenClaw.

{
  "mcpServers": {
    "playwright": {
      "command": "npx",
      "args": [
        "@playwright/mcp@latest",
        "--browser=firefox",
        "--headless",
        "--no-sandbox"
      ]
    }
  }
}

Шаг 4

Создаем папку /var/www/Landings. Тут будут все наши сайты. Создаем пустой репозиторий на github (тут будут все наши сайты и вся история изменений). В папке делаем git clone нашего репо. Он пока пустой.

Шаг 5

Поднимаем nginx и настраиваем ссылки на сайты.

sudo apt update
sudo apt install nginx
sudo systemctl enable --now nginx

Например, у нас будут сайты:

/var/www/Landings/site1
/var/www/Landings/site2
/var/www/Landings/site3

Создаем файл конфигурации сайта:

sudo nano /etc/nginx/sites-available/site1.conf

С содержимым:

server {
    listen 80;
    server_name site1.example.com www.site1.example.com;

    root /var/www/Landings/site1;
    index index.html index.htm;

    location / {
        try_files $uri $uri/ =404;
    }
}

Включаем сайт:

sudo ln -s /etc/nginx/sites-available/site1.conf /etc/nginx/sites-enabled/
sudo nginx -t
sudo systemctl reload nginx

Повторяем для всех сайтов, либо опять же просим бота в TG это сделать.

Шаг 6

Говорим TG боту спарсить сайт с такого-то url, если сайты уже есть, для переноса сайта на OpenClaw: “Склонируй сайт example.com в /var/www/Landings/site1”

Или сами копируем все файлы сайта в подпапку с нашим репо:

scp -r "/путь/к/папке сайта" username@ip_или_host_нашей_VPS:/var/www/site1

Выводы

Ключевое тут - это даже не экономия ФОТ, а экономия time-to-market. То есть раньше это занимало неделю, и я лично знаю случай, когда цвет кнопки на сайте меняли 3 недели, сейчас это занимает минуты, включая полное тестирование, и вы сразу видите результат.

Для бизнеса это очень существенная экономия и сокращение feedback loop.