Обновить

Как развернуть полноценный n8n AI-стек за 15 минут, а не за целый день

Уровень сложностиПростой
Время на прочтение7 мин
Охват и читатели15K
Всего голосов 39: ↑39 и ↓0+43
Комментарии22

Комментарии 22

Спасибо за вашу работу. Очень классно. Пользуюсь. На vps шикарно работает. Действительно в несколько кликов и команд ставится. Рад что и lightrag добавили, а то вроде ещё пару месяцев назад не было.

Благодарен тебе

,Шикарно!! Спасибо, что поделились! Буду пробовать, поделюсь опытом развертывания на реальном примере.

Можно подробнее почему n8n орекстратор над flowise? Пока не щупал ни тот ни другой но планирую, рассматривал их в режиме vs а не coop

Привет. Зачем Flowise в связке с n8n? В N8n вроде есть элементы для RAG

Что может flowise и не может n8n, интересно

@Mortello @kiru @vassilevev

Отвечу на вопрос про различия:
Основное отличие Flowise то, что это специализированная платформа для AI-агентов на базе LangChain, тогда как n8n скорее мультитул, в котором есть все и сразу.

Flowise добавили в проект ещё весной 2025, и тогда разница с n8n была ощутимой - он сильно выигрывал в построении мультиагентных систем, например у него первого появились rag, evals, tracing, shared state между агентами и тд. Но n8n последние полгода активно догонял flowise, и сейчас различия не так существенны.

Лично я использую Flowise скорее из привычки, так как начинал с него во времена когда в n8n агентные ноды еще не были так развиты.

Вопрос по практической эксплуатации. Как у вас это живёт в реальных проектах: поднимаете весь стек (n8n + LLM + векторка + мониторинг) на одном VPS как «швейцарский нож», или в бою всё равно приходится распиливать по нескольким окружениям (отдельно RAG, отдельно playground и т.п.)?

И второй момент: по вашему опыту, где начинается «минимально комфортное» железо для такого набора сервисов, если речь про небольшую команду/пет-проект? Хотелось бы понять порядок — это ещё уровень условного 2–4 ГБ RAM или на практике надо сразу смотреть в сторону более тяжёлых машин.

По первому вопросу - зависит от серьёзности проекта.

Если это пет-проекты или прототипирование - да, весь стек отлично живёт на одном VPS. Собственно, для этого сборка и создавалась: быстро поднял окружение, проверил гипотезу, показал заказчику MVP. Для этих целей в ней есть всё что нужно.

Если говорить про серьёзный продакшн - там я n8n не использую. Обычно это экосистема langchain и облачные провайдеры моделей.

По железу. Тут, к сожалению, нельзя дать универсальный ответ - слишком много переменных.

Минимальный сетап (n8n + бэкапы + мониторинг) - 2 CPU / 4 GB RAM. Дальше нужно смотреть конкретно:

  • Какие сервисы планируете запускать

  • Будете ли использовать локальные модели или облачные API

  • Если локальные - какие именно модели, какого размера, и на чём запускаете (CPU или GPU)

По сути, нужно составить список того, что хотите поднять, и добавлять ресурсы к минимальному сетапу. Базовые требования сильно зависят от того, используются ли LLM вообще - это самая ресурсоёмкая часть. Запуск модели на CPU и на GPU - это совершенно разные истории по потреблению RAM и скорости инференса.

Неожиданно, что Postgresus включили в сборку. Спасибо :)

Здравствуйте с учётом того что выходит новая версия n8n насколько ваша система надо переадаптировать?

Здравствуйте! Не совсем понял вопрос - уточните, пожалуйста.

Если речь про обновление до n8n v2, то с вашей стороны нужно будет только проверить свои воркфлоу через Settings -> Migration Report и исправить те, которые будут подсвечены как требующие внимания.

Обновление сборки станет доступно после выхода стабильной версии 2.0.x.

Добрый день. А как вы поулчаете wild-сертификаты автоматически? Получал сертификаты на домены с рег.ру и Cloudflare - в обоих случая нужно было получить ключ в личном кабинете. Вы используете какой-то другой способ?

Wildcard-сертификаты в проекте не используются. Настраивается wildcard DNS-запись (*.domain.com), но сертификаты получаются отдельно для каждого поддомена через стандартный HTTP-01 challenge. Caddy делает это полностью автоматически - нужен только открытый порт 80/443 и указанный email в LETSENCRYPT_EMAIL. API-ключи DNS-провайдера не требуются.

Мощно, супер, спасибо, буду пробовать!

Огромное спасибо за ваш труд! Возник вопрос, как изменить timezone в n8n? Так, чтобы при обновлении все оставалось настроеным

Юрий безусловно этот проект выше всяких похвал. Подскажите пожалуйста как изменить TIMEZONE для n8n? Как я понимаю переменных для изменения в проекте нет. А по умолчанию для всех Workflow таймзона Нью-Йорк.

@A-Gorbach @itenthusiast-ru Спасибо!

Есть две опции как изменить timezone:
1) Глобально сразу для всех workflow
2) Точечно для каждого workflow по отдельности

Глобально:
Нужно добавить переменную GENERIC_TIMEZONE в .env файл в корне проекта, например:

GENERIC_TIMEZONE=America/New_York


И затем перезапустить сервисы через

sudo bash ./scripts/update.sh



Точечно:
Нужно в workflow в котором хотите изменить timezone зайти в Settings:

А затем выбрать искомую из селектора Timezone:

Огромное спасибо за проделанную работу, а главное полезную многим! (за такое и заплатить не жалко)
отдельно порадовало знакомство с Caddy , теперь еще один инструмент в моей копилке))

Юрий, огромное спасибо за вашу работу! Подскажите пожалуйста, как активировать ноду ExecuteCommand? Пробовал добавить переменную NODES_EXCLUDE="[]" в .env, но при перезапуске сервисов строка удаляется.

Спасибо!
Все так, проблема в том, что эта переменная не прокидывалась в n8n до этого. Я добавил необходимые изменения, сейчас все будет работать, достаточно обновиться через команду:

sudo bash ./scripts/update.sh

После переменная NODES_EXCLUDE автоматически появится в .env файле и будет использоваться n8n.

Ребят, никак не выходит с cloudflare подружить. Может кто смог настроить?

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации