Комментарии 10
Спасибо большое!
Кратко и понятно!
Может я чего и не понимаю, но разве nginx не позиционируется как лучший сервер для раздачи статики? Не будет ли раздача статики javascript-ом медленным велосипедом? + нет необходимости занимать 80-ый порт.
Не могу сейчас найти ссылку, но я точно видел пост (или комментарий) человека, утверждавшего, что node отдает статику так же быстро, как и nginx. Не знаю, как такое получилось, возможно, у него была просто пара файлов, которые он все время держал в памяти.
Статику нодой можно действительно отдавать быстро, даже есть нативный sendfile, но:
— настройка nginx гибче (либо используем самописные велосипеды);
— при 10K files 10K connections есть сомнения, что обвязка справиться;
— тем самым вы разгружаете ноду, для работы с динимикой.
Кстати здесь есть сравнение, правда для lighty, что не суть важно.
— настройка nginx гибче (либо используем самописные велосипеды);
— при 10K files 10K connections есть сомнения, что обвязка справиться;
— тем самым вы разгружаете ноду, для работы с динимикой.
Кстати здесь есть сравнение, правда для lighty, что не суть важно.
Спасибо.
А то я мучался вопросом, правильно ли подобрал связку сервисов?
Оказывается все тоже мучаются.
А то я мучался вопросом, правильно ли подобрал связку сервисов?
Оказывается все тоже мучаются.
Насколько, по Вашему мнению, уместно пробовать это с маломощными компютерами на Linux?
Raspberry Pi В, например… Там всего лишь 256 ОЗУ…
Raspberry Pi В, например… Там всего лишь 256 ОЗУ…
В разделе «Перезапуск упавшего процесса» стоит повторно упомянуть cluster API.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Установка node.js на VPS