Comments 17
На worker тоже желательно ставить etcd и Control plane для отказоустойчивости.
И для чего ставить Kubernetes dashboard если есть панель Rancher вы так и не объяснили.
И для чего ставить Kubernetes dashboard если есть панель Rancher вы так и не объяснили.
@ gibson_dev Согласен и не согласен. Dashboard Rancher и Kubernetes похожи по функциональности, но некоторые возможности не пересекаются. Не вдаваясь в подробности, Rancher — система управления кластерами. Kubernetes — управление самим кластером. Плюсом ко всему есть такая вещь как привычка у сотрудников к Kubernetes Web UI. Насчет установки etcd и Control Plane согласен, но пометил в тексте, что это следует делать по усмотрению.
Помню, как логала оверлейная сеть в rancher 1.x, жуть просто, вся первая версия, набор костылей на скорую руку, надеюсь 2.0 у них куда лучше получился.
А успели попробовать как отработает падение одной, второй ноды? Синхронное падение и запуск?
alexkuzko Да, конечно. Как показано на Рис.1, схема состоит из 5 нод и 1 мастера (мастер — тоже воркер). При падении 5 из 6 хостов сервисы остаются на плаву. GlusterFS при этом набирает изменения и при поднятии хостов обратно — происходит синхронизация распределенных файловых систем. haProxy настроен на leastconn режим и roundrobin режим в зависимости от запущенных приложений. Отличная черта Kubernetes — при монтировании хранилищ, разделы сохраняются за контейнером на pod'е, что позволяет не следить за восстановлением работы контейнеров, в отличии от Swarm mode on Docker, там я сталкивался с проблемами персистентности. В случае же падения всего кластера, все запускается обратно без проблем. По крайней мере в моей текущей конфигурации стека/приложений, я не наблюдал затруднений. Количество Replica Set, запущенных pod настраиваются индивидуально под сервис, гарантируя одновременное количество запущенных и доступных сервисов.
Интересное у Вас «голое железо» в виде VM.
А по каким критериям выбрали GlusterFS?
de1m Простота настройки. С чем однозначно хочется сравнить, так это с Ceph. Не имел плотного опыта работы с Ceph, в будущем есть планы протестировать их в одинаковых условиях. Существует большинство разногласий по поводу того, какой из этих продуктов лучше, но я придерживался простой позиции, мне показался проще GlusterFS, а на быстродействие, подключение новых нод, устойчивость к падению и синхронизацию пока нареканий нет.
Коллеги будьте аккуратны с Rancher 2.0, был опыт когда кластер «развалился» на тестовом окружении по не очень понятным причинам (не сильно и копали). Отказались пока от его использования.
Я верно понимаю, что Rancher теперь платный и просто так его не помацать?
rudenkovk, Rancher 2.0 распространяется бесплатно. Его исходники можно найти на GitHub. Quick start guide
Rancher запущен в контейнере, а что будет после перезапуска контейнера с Rancher? Как будут подключаться агенты к ранчеру если у него будет новый IP после перезапуска? Не развалится ли кластер Kubernetes после остановки ранчера?
Почему не использовали провижионинг через утилиту rke?
Sign up to leave a comment.
Rancher: Kubernetes за 5 минут на голом железе