Комментарии 10
talosctl bootstrap достаточно на самом первом мастере.
для удобства работы нужно сразу завести директорию ~/.talos/ и там сделать симлинк на текущий talosconfig -> config.
добавил туда ноды контролплейнов отдельно и все ноды
talosctl config endpoint 10.10.0.11 10.10.0.12 10.10.0.13
talosctl config node 10.10.0.11 10.10.0.12 10.10.0.13 10.10.0.14 10.10.0.15Потом гораздо проще, можно просто писать "talosctl команда" в большинстве случаев, без кучи ключей. Иногда нужно будет указать конкретную ноду для команд, которые умеют работать только с одной нодой.
Ну и самое интересное, что в итоге можно кажется развернуть Deckhouse CE на этот новый пустой кластер. Вот как раз сейчас буду это пробовать.
В талосе одна из классных фишек - это kubeprism (встроенный балансировщик на каждой ноде для доступа к conrtolplane). У них на сайте есть ролик с объяснениями, как работает.
если не сложно поделитесь о развертывание Deckhouse CE - интересует каким путем Вы все же пошли - уменьшали версию куба(ведь версия 1.62 DH поддерживающая 1.30 сейчас в Early Access)?
Спасибо за комментарий, про bootstrap вы правы, отредактирую в статье. Про ~/.talos я как раз узнал уже на финишной прямой, это и правда удобнее, особенно когда нужно довольно часто выполнять команды с утилитой talosctl.
Не нужно Deckhouse
Как я понимаю при таком пути установки ip получаются по dhcp и есть вероятность что ip будут изменены. Как переживет такой кластер смену ip?
Такой кейс я не рассматривал, поэтому точный и верный ответ дать не смогу. Как минимум возникнут проблемы с TLS-сертификатами + конфигурационными файлами на стороне клиента. Но думаю, что это лишь часть неприятностей :)
Я перезагружал узлы несколько раз в процессе написания статьи, IP-адреса оставались статичными.
Как шарить доступ к Апи Талоса внутри команды? Например, вы в отпуске и нужен другой девопс для управления Талосом. Как выглядит процедура обновления/удаления/добавления контрол плейна?
Советую автору ещё посмотреть в сторону rancher и clusterapi решений
Talos Linux & VirtualBox: готовим свой Kubernetes