Comments 32
Digital Ocean так-то дешевле, можно за $5 почувствовать себя DevOps«ом
В Scaleway за 2.99 и машинка получше
За 2.99€ будет 2GB памяти, что должно хватить, но вот CPU там слабые, сильно уступают даже DO за 5$. Чистая установка master сервера отъедает большинство ресурсов, а загрузка CPU в простое около 40-50% (на все обслуживающие kubernates процессы, docker, плагин сети). Для обычной kubernates будет нормально, но вот для master нет.
Kubernates еще удобно устанавливать с помощью Juju, но к сожалению в дефолтное ядро не включен один модуль, из-за чего приходится собирать свой образ.
Kubernates еще удобно устанавливать с помощью Juju, но к сожалению в дефолтное ядро не включен один модуль, из-за чего приходится собирать свой образ.
Scaleway к машине за 3 евро цепляют винт на 50Gb, стоимостью больше самой машины. Пришлось экстренно оттуда бежать.
2.99 евро
Ещё бы было что-то такое же, но чтобы был мультьмастер.
Может мне кто-то пояснит, как это делается в продуктивных кластерах, ведь если вылетит мастер, то тогда кластер всё. Как выглядит обычная практика? Делают много мастеров?
Я пытался по информации вот отсюда поставит несколько мастеров. Но не работает.
Может мне кто-то пояснит, как это делается в продуктивных кластерах, ведь если вылетит мастер, то тогда кластер всё. Как выглядит обычная практика? Делают много мастеров?
Я пытался по информации вот отсюда поставит несколько мастеров. Но не работает.
В k8s все сервисы кластера stateless, мультимастера нет. Обычно вертят сверху HA решения, чтобы обращения шли на «общий» ipшник. Однако, имеет смысл сделать несколько инстансов etcd, поскольку этот сервис как раз использует k8s для хранения конфигурации кластера.
> Ещё бы было что-то такое же, но чтобы был мультимастер.
Попробуйте Mesos/Marathon/DSOS, там он есть.
Попробуйте Mesos/Marathon/DSOS, там он есть.
А можно инструкцию по установке, но на примере CentOs?
Ставите kubectl и kubeadm из соответствующего репозитория и дальше все то же самое. Полный гайд для центоси и убунты есть в документации
Самое удобное и универсальное средство, которое мне удалось найти — это kubespray. По сути это набор ansible скриптов. Поддерживает множество операционных систем, в тч atomic. Умеет и мультимастер поднять.
+1, тоже поднимаю с kubespray, не понимаю почему все статьи про kubeadm, он же еще не умеет мультимастер
Потому как kubeadm, если я верно понял, решение, которое предоставляет сам проект и, как результат, умеет поднимать кластер на последних версиях всего. Да, и, кажется, самый простой вариант.
Ну… на голую убунту будет поставлен docker 1.8
Ну примером сейчас кубеспрей выливает Кубернетис версии v1.6.7, когда через месяц уже будет 1.8. И еще:
> The easiest way to run the deployement is to use the kubespray-cli tool.
И паралельно в доках Кубернетис написано
> kubespray-cli is no longer actively maintained.
> The easiest way to run the deployement is to use the kubespray-cli tool.
И паралельно в доках Кубернетис написано
> kubespray-cli is no longer actively maintained.
А еще там написано, что на продакшн рекомендуется собирать from scratch
Ну по комитах действительно kubespray-cli не активно девелопится.
> А еще там написано, что на продакшн рекомендуется собирать from scratch
А вот такого не видел. Ссылку?
> А еще там написано, что на продакшн рекомендуется собирать from scratch
А вот такого не видел. Ссылку?
Не совсем точно выразился
WARNING: kubeadm is in beta, please do not use it for production clusters.
Гласит документация и сам kubeadm
Вроде как мультимастер с kubeadm должны реализовать. Об этом есть в доках.
Однажды провозился с установкой локально на виртуалочки с центосью — потратил 3 дня собрал половину тикетов на SO и бросил это дело.
На убунте не запустится. Будет ошибка нод.
runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
runtime network not ready: NetworkReady=false reason:NetworkPluginNotReady message:docker: network plugin is not ready: cni config uninitialized
запустите flannel и будет вам счастье
Спасибо, мне не будет. Я, как и предыдущий комментатор, в это забагованное поделие наигрался.
А вот для тех, у кого много свободного вренмени, можно было бы и дописать эту строчку.
А вот для тех, у кого много свободного вренмени, можно было бы и дописать эту строчку.
Как его запустить? Весь день над этой ошибкой бьюсь
В моем случае для создания SSH туннеля сработала такая команда:
ssh -N -L 8001:127.0.0.1:8001 username@remotehost
Sign up to leave a comment.
Kubernetes на голом железе за 10 минут