Pull to refresh

Comments 14

Спасибо, интересно.
Буду ждать след. публикацию
Все это прекрасно, но в случае общего хранилища в SAN приходится его пилить и раздавать по частям — clvm+gfs2 под ubuntu неявно требуют cman, последняя версия которого была в 12.04
Я не совсем вас понял, причём здесь SAN-хранилище?
Простите, конкретно здесь не причем. Мне нужно было выговориться из-за угроханного в пустую месяца в попытках запустить openstack с общим SAN-хранилищем
Да вам не за что извиняться. Я просто так и не понял что конкретно вы имели в виду:
Вы полностью отказались от HDD на серверах с OpenStack
Вы хотели разместить виртуальные диски Cinder`а в хранилище SAN
Что-то ещё
?
Можете чуть подробнее рассказать?
По плану конфигурация должна была получиться следующая:
1) диски серверов использовать только под систему
2) отказаться от Cinder/Ceph/etc.
3) вместо этого использовать общее хранилище SAN с clvm+gfs2, чтобы не терять драгоценное место на отказоустойчивости, пусть даже ценой «ручного» failover и миграции с одной compute node'ы на другую

но как у я уже сказал в первом комменте — все уперлось в отсутствие cman под ubuntu свежее 12.04
А чем не устроил Cinder?
Я почему спрашиваю, потому что мне больше нравится использовать OpenStack «из коробки» (как впрочем и многие продукты).

А выбор Ubuntu в качестве примера был взят только потому, что:
Большинство «новичков» используют Ubuntu как дистрибутив для ознакомления с Linux, соответственно для них это будет немного ближе.
На CentOS установка RabbitMQ производится более чем в одну команду. А это может быть камнем преткновения для некоторых из пользователей. Не хотелось на этом акцентировать внимание.
Под рукой были образы только Ubuntu Server и CentOS 7 (который с GUI`ёвым установщиком). Собственно мышки под рукой не оказалось. Вот так вот просто это определило судьбу моего тестового стенда.
Да, надо немного пояснить. Наличии были 6 серверов HP BL460c Gen8 одинаковой начинки и подключением к SAN. Выделять из этого небольшого количества storage-only ноды для Cinder/Ceph слишком расточительно, т.к требует минимум две ноды для отказоустойчивости и дополнительно выходной объем хранилища уменьшается в 2 раза. Последнее — лишнее, т.к. хранилище в SAN само обеспечивает отказоустойчивость.

Поэтому хотелось сделать универсальные compute ноды, а хранилище отдавать целиком каждой ноде — эдакий аналог VmWare-кластера, где ноды равноправны и vmfs поддерживает работу в кластере.
Идея интересная. А на чём в итоге развернули? На RHEL/CentOS?
Ничего не вышло. clvm+gfs2 неявно требуют cman (cluster manager от RH), который последний раз был в 12.04. В итоге пришлось поставить отдельные kvm на машины и разрезать хранилище на 6 частей. Без HA, failover и централизованного управления.
Простите за некрокоммент, но радуйтесь, что у Вас ничего не вышло с GFS2. Эксплуатировал принесённый интегратором криво настроенный GFS2 поверх FC (как ФС, без clvm) для хранения дисков ВМ — боль и страдания. Выкинул и вздохнул свободно. У того же Cinder (по крайней мере на начало 2015 года) довольно сносные драйверы для нарезания LUN-ов в СХД напрямую, можно было попробовать их (если у Вас, конечно, не MSA, драйвер к которому в ту пору то торжественно выкидывался из Cinder, то торжественно вносился обратно). Да и работой multipath в Ubuntu я не очень доволен (фантомные боли при «моргании» путями). В общем, у меня сложилось мнение, что с FC и прочим энтерпрайзом RHEL и его производные дружат значительно лучше просто на том основании, что в Ubuntu это никому не нужно.
Спасибо. Поигрался на трех машинах. Потом все снес на одну. Если внимательно следовать инструкции, то все сразу работает.
Интересная штукенция получается. Единственное что — не нравится мне когда не понимаешь как оно работает. Поизучаю и через месяц разверну в опытную эксплуатацию.
> --gateway 172.168.1.1

ошибка, --gateway 172.16.1.1
Sign up to leave a comment.

Articles