Pull to refresh

Comments 17

На worker тоже желательно ставить etcd и Control plane для отказоустойчивости.

И для чего ставить Kubernetes dashboard если есть панель Rancher вы так и не объяснили.
@ gibson_dev Согласен и не согласен. Dashboard Rancher и Kubernetes похожи по функциональности, но некоторые возможности не пересекаются. Не вдаваясь в подробности, Rancher — система управления кластерами. Kubernetes — управление самим кластером. Плюсом ко всему есть такая вещь как привычка у сотрудников к Kubernetes Web UI. Насчет установки etcd и Control Plane согласен, но пометил в тексте, что это следует делать по усмотрению.

Ну, я посмотрел и по ходу — все необходимое есть в панели ранчера. Если уж совсем приперло — всегда можно запустить kubectl и потыкать в кластер вручную. Т.е. ценности от k8s dashboard особо и нет.
И если уж на то пошло, то панелька от опеншифта гораздо более красивая, чем родная от k8s...

Помню, как логала оверлейная сеть в rancher 1.x, жуть просто, вся первая версия, набор костылей на скорую руку, надеюсь 2.0 у них куда лучше получился.
D1abloRUS Провайдером сети в данном случае выступает Flannel, рекомендуемый в официальной документации к Kubernetes. Проблем, возможно пока, не замечал.
В 1.х они пилили свой оркестратор с гуями, ну и всеми вытекующими, оверлей они реализовывали посредством ipsec. В 2.0 они решили выкинуть все свои велосипеды, оставить ток гуй и взять куб в бэкграунд.
А успели попробовать как отработает падение одной, второй ноды? Синхронное падение и запуск?
alexkuzko Да, конечно. Как показано на Рис.1, схема состоит из 5 нод и 1 мастера (мастер — тоже воркер). При падении 5 из 6 хостов сервисы остаются на плаву. GlusterFS при этом набирает изменения и при поднятии хостов обратно — происходит синхронизация распределенных файловых систем. haProxy настроен на leastconn режим и roundrobin режим в зависимости от запущенных приложений. Отличная черта Kubernetes — при монтировании хранилищ, разделы сохраняются за контейнером на pod'е, что позволяет не следить за восстановлением работы контейнеров, в отличии от Swarm mode on Docker, там я сталкивался с проблемами персистентности. В случае же падения всего кластера, все запускается обратно без проблем. По крайней мере в моей текущей конфигурации стека/приложений, я не наблюдал затруднений. Количество Replica Set, запущенных pod настраиваются индивидуально под сервис, гарантируя одновременное количество запущенных и доступных сервисов.
Интересное у Вас «голое железо» в виде VM.
de1m Простота настройки. С чем однозначно хочется сравнить, так это с Ceph. Не имел плотного опыта работы с Ceph, в будущем есть планы протестировать их в одинаковых условиях. Существует большинство разногласий по поводу того, какой из этих продуктов лучше, но я придерживался простой позиции, мне показался проще GlusterFS, а на быстродействие, подключение новых нод, устойчивость к падению и синхронизацию пока нареканий нет.
Коллеги будьте аккуратны с Rancher 2.0, был опыт когда кластер «развалился» на тестовом окружении по не очень понятным причинам (не сильно и копали). Отказались пока от его использования.

Я верно понимаю, что Rancher теперь платный и просто так его не помацать?

Rancher запущен в контейнере, а что будет после перезапуска контейнера с Rancher? Как будут подключаться агенты к ранчеру если у него будет новый IP после перезапуска? Не развалится ли кластер Kubernetes после остановки ранчера?

Почему не использовали провижионинг через утилиту rke?

Sign up to leave a comment.

Articles