Нативно интегрированные контейнеры, которые работают без боли дженкинсового docker-in-docker, простой формат описания пайплайнов, интеграция с секретами k8s, возможность для теста запустить пайплайн "с вот этим локальным каталогом". Gitlab CI покрывает многое из этого, но Gitlab огромен и неповоротлив. Менеджер и вебморда Concourse у меня помещается в 200мб ram.
У flannel есть режим работы host-gw, когда все ваши машины в пределах одного сегмента L2, там минимальный оверхед — по сути он просто все забивает в таблицу маршрутизации.
С другой стороны, calico так тоже может, но у calico еще и NetworkPolicy есть.
забавно как — только сегодня наткнулся на Parsec и смог даже немного погонять Tomb Raider на AWS (g2.2xlarge), работало идеально. А позже сегодня пришел инвайт на бету Geforce Now. Теперь играть можно будет только в официальном nvidia-облаке?
Как ни крути, а electron все же память жрет как не в себя — 3 из 5 топовых процессов у меня вот. А что касается дискорда, то там еще прошлой осенью были просто адовые утечки когда он мог по 4-5гб памяти съедать.
em-dash и en-dash обычно не оббивается пробелами в американском английском. В британском, обычно, em-dash не используется вообще, а en-dash оббивается пробелами (пример).
Нет, я сам только экспериментирую, но я видел развернутые варианты. Для себя я жду поддержку multi-master в kubeadm.
Я гонял много разной нагрузки, от сложносвязянных микросервисов до LAMP вордпресса. Ceph RBD работает стабильно. Ceph Cephfs имеет несколько багов с подчисткой ресурсов и общей стабильностью. Сам k8s работает абсолютно без нареканий, текущий кластер начинал с 1.7, потом обновлял вплоть до 1.9-alpha через kubeadm и нескольких плейбуков в ансибле. Calico работает очень стабильно и позволяет сделать простой L2-"меш" без оверхедов.
Внимание: если вы работаете с несколькими идентичными средами с одной управляющей машины (blue/green развертывания, stage/prod), убедитесь, что не выстрелите себе в ногу! Если, к примеру, вы сначала скачали актуальные настройки с прода и следующим шагом хотите обновить тестовую среду новой версией компонентов, а SSH-сокеты остались открытыми от прода, то ой… Так что нужно либо делать ControlPath у этих сред разный, либо принудительно закрывать мастер-сессии или удалять сокеты перед началом работы с другой средой.
Просто используйте разные сокеты, например ControlPath ~/.ssh/master-%r@%h:%p.
Нативно интегрированные контейнеры, которые работают без боли дженкинсового docker-in-docker, простой формат описания пайплайнов, интеграция с секретами k8s, возможность для теста запустить пайплайн "с вот этим локальным каталогом". Gitlab CI покрывает многое из этого, но Gitlab огромен и неповоротлив. Менеджер и вебморда Concourse у меня помещается в 200мб ram.
BOSH не нужен вообще, можно без него.
У flannel есть режим работы host-gw, когда все ваши машины в пределах одного сегмента L2, там минимальный оверхед — по сути он просто все забивает в таблицу маршрутизации.
С другой стороны, calico так тоже может, но у calico еще и NetworkPolicy есть.
Так это все те же rootfs / cofyc, по большему счету :-)
и для rbd и для cephfs есть контроллеры StorageClass, которые создают хранилище сами.
Rook пока очень сырой чтобы на него смотреть как мне кажется. Что-то пойдет не так и все, все хранилище мертво.
А почему не https://github.com/kubernetes-incubator/external-storage/tree/master/ceph/rbd? Зачем патчить контроллер?
ну да. В этом плане оно все такое же как jekyll и co
gatsby компилит приложение в, условно, статику — потому запросы к strapi будут только когда вы пересобираете gatsby-фронт.
Любая автоматическая рассылка без кнопки "отписаться" — это очень не хорошо.
Вы же понимаете что это самый надежный способ попасть в спам-лист раз и навсегда?
забавно как — только сегодня наткнулся на Parsec и смог даже немного погонять Tomb Raider на AWS (g2.2xlarge), работало идеально. А позже сегодня пришел инвайт на бету Geforce Now. Теперь играть можно будет только в официальном nvidia-облаке?
Как ни крути, а electron все же память жрет как не в себя — 3 из 5 топовых процессов у меня вот. А что касается дискорда, то там еще прошлой осенью были просто адовые утечки когда он мог по 4-5гб памяти съедать.
Он привередлив по питанию, может хаб сильно странный?
em-dash и en-dash обычно не оббивается пробелами в американском английском. В британском, обычно, em-dash не используется вообще, а en-dash оббивается пробелами (пример).
edit: добавил разницу us/uk.
Я уточню что ActionPlugin не обязан вызывать модуль если все что он делает можно обработать в контексте процесса ansible.
Нет, я сам только экспериментирую, но я видел развернутые варианты. Для себя я жду поддержку multi-master в kubeadm.
Я гонял много разной нагрузки, от сложносвязянных микросервисов до LAMP вордпресса. Ceph RBD работает стабильно. Ceph Cephfs имеет несколько багов с подчисткой ресурсов и общей стабильностью. Сам k8s работает абсолютно без нареканий, текущий кластер начинал с 1.7, потом обновлял вплоть до 1.9-alpha через kubeadm и нескольких плейбуков в ансибле. Calico работает очень стабильно и позволяет сделать простой L2-"меш" без оверхедов.
Просто используйте разные сокеты, например
ControlPath ~/.ssh/master-%r@%h:%p
.Production-решение отлично можно развернуть на ubuntu + kubeadm + ceph на самом деле. С обновлениями и прочим, но без репликации мастера.