Второй месяц, срок конечно не большой, но поводов для деградации пока не видно. Полёт нормальный.
К тому же в работе у меня упор на LXC контейнера, Docker — так, посмотреть что за зверь.
И Pacemaker не такой уж и страшный, если разобраться.
Спасибо за проявленный интерес.
Это multipath устройство, так как SAS хранилище у меня подключено двумя линками. На втором сервере используется единственный FC, и там привычное /dev/sdc.
Вообще, сойдёт любое общее блочное устройство — lvm разберётся, что куда.
Ещё можно увеличить migration-threshold, тогда ресурсы не будут метаться между узлами при любом чихе и серьёзных последствий в результате split-brain быть не должно.
Соединено через свичи и да, возможна ситуация двух мастеров при выходе из строя сети. Я пробовал такой сценарий — после возвращения сети один узел другой пристреливал и ситуация в итоге нормализовалась, правда статусы ресурсов всё равно нужно было сбросить в ручную.
Я думал ввести какой-нибудь дополнительный механизм контроля, либо через COM, либо по флагу через GFS2 и общее хранилище (нужно тестировать). Но пока не реализовал.
Кластер успешно работает уже некоторое время и держит LXC контейнера с не критичными службами, продолжаю переносить туда контейнера из OpenVZ.
В планах третий узел и сценарии будут более разнообразны.
Как раз наоборот. Пистолеты они держат у виска соседа. И триггер не по отсутствию соседа, а по сбою критичного ресурса у этого соседа. Вариант с ipmi конечно далёк от идеального, но это всё что у меня пока есть.
К тому же в работе у меня упор на LXC контейнера, Docker — так, посмотреть что за зверь.
И Pacemaker не такой уж и страшный, если разобраться.
clusterlabs.org/doc/crm_fencing.html
Там используется crm, с ходу на pcs не подскажу, консоли под рукой нет.
configure
primitive st-null stonith:null \
params hostlist=«alice bob»
clone fencing st-null
commit
(это на crm)
www.suse.com/documentation/sle-ha-12/book_sleha/data/sec_ha_fencing_config.html
Это multipath устройство, так как SAS хранилище у меня подключено двумя линками. На втором сервере используется единственный FC, и там привычное /dev/sdc.
Вообще, сойдёт любое общее блочное устройство — lvm разберётся, что куда.
Я думал ввести какой-нибудь дополнительный механизм контроля, либо через COM, либо по флагу через GFS2 и общее хранилище (нужно тестировать). Но пока не реализовал.
Кластер успешно работает уже некоторое время и держит LXC контейнера с не критичными службами, продолжаю переносить туда контейнера из OpenVZ.
В планах третий узел и сценарии будут более разнообразны.