Как стать автором
Обновить

Комментарии 33

GlusterFS весьма интересная и имеет хороший потенциал. Главная её особенность в том, что там нету нод с метаданными, а следовательно отсуствует бутылочное горлышко.
Сама система имеет так называемые трансляторы: репликация, страйп, кеши, и.т.д. — в общем можно настроить под свои нужды так, что бы работало лучшим образом.

Надеюсь Red Hat вложит в неё приличное кол-во ресурсов и её доработают для работы с мелкими файлами, а так же повысят стабильность как таковую.
Когда пользовал при падении ноды реставрация больших файлов была очень долгой ;( и машины простаивали, вроде хотели допилить в последних версиях, но ред хат купила с тех пор.
А у меня на одной ноде вообще 5ТБ файлов обнулились
И документацию, документацию пусть доделают нормально.
А то сейчас этот ваш Гластер практически на ощупь приходится поднимать.
Это вполне может привести к традиционному «ответу» EMC — покупки ею компании RedHat…
Маловероятно, капитализация RH уже 10 миллиардов (у EMC — 50), так что это будет очень нелегко, да и акционеры EMC не дадут согласия на такой шаг.
Может быть, средства позволяют. Но будем надеяться, что этого не произойдёт.
Я запостил туже ссылку на секунду раньше. ;-)
Только я сомневаюсь, что средства позволяют. Причин несколько:
1) Обычно покупки совершаются по схеме «капитализация + годовой оборот за несколько лет», т.е. понадобится не меньше 15 миллиардов (red hat «по дешёвке» не отдадут.)
2) Сколько свободных средств у EMC не известно, во времена финансового кризиса, банки большую сумму не дадут.
3) Покупка компаний, занимающихся СПО — громадный риск. Вероятность того, что после приобретения разбегутся разработчики (составляющие основную ценность СПО-компаний), совсем не нулевая. ;-)
Не знаю как там сейчас, но саппорт и сервис у Gluster был на высоте. Всегда вовремя перезванивали, интересовались, как дела с моим деплойментом, окружением. Постоянно интересовались что добавить, что улучшить? Можно было с системными архитекторами напрямую поговорить!
Жаль не подошло по скорости :( Очень и очень приятная софтина и кантора!
НЛО прилетело и опубликовало эту надпись здесь
Почему RH купили Gluster очевидно. Они уже приняли решение утопить свое не самое удачное детище Red Hat Cluster Suite.

Есть еще, на мой взгляд, очень перспективный openstack.org (IaaS). В бэкинге у него Dell и SUSE. Набирает обороты сейчас.
… даже не знаю, как ответить. Пожалуй, просто перечислю несколько фактов:
1) Задачи, для которых используют GlusterFS и RH Cluster Suite, практически не пересекаются.
2) Red Hat Cluster Suite вполне удачное детище, используемое очень многими.
3) Gluster (т.е теперь RH) участвует в проекте OpenStack.
4) В «бэкинге» у OpenStack не только Dell и SUSE, но и ещё множество компаний, например, этот проект активно поддерживает Canonical (Ubuntu).
5) Последняя версия Fedora включает в себя «OpenStack tools configure»
6) OpenStack был перспективен и «набирал обороты», когда его двигал Вивек Кундра, теперь он ушёл и будущее проекта не столь безоблачно.
… и т.д. и т.п.
Мистер Туман

1) Gluster будет только частью стека, очевидно.
2) Spacewalk финансово тоже удачное детище. Это не делает его хорошим. И в Редхете эти 2 факта понимают.
3) Читайте номер один.
4) Ну да. Взял просто 2 компании с которыми об этом говорил.
5) Это замечательно! Вообще очевидно что это значит.
6) Не понимаю. То есть Вивек круче коммюнити и энтерпрайса которые это бэкают?

1) Gluster будет частью другого стека.
2) А Novell, засунув Spacewalk в SUSE Manager, решила работать с «не хорошим» продуктом? :-)
3) Gluster остаётся важной частью cloud, в том числе OpenStack.

6) Не Вивек Кундра, а должность, которую он занимал. Да, круче. Когда ты решаешь, кому отдать 80 миллиардов долларов (утрирую) — ты круче и комьюнити и энтерпрайза. Поэтому я и говорю, что без административной поддержки, развитие проекта может идти не такими быстрыми темпами.
1) Да — это же хорошо? Прогрес на лицо.

2) Вы счиаете что SUSE приняло много правильных решений за последние 10 лет? У них разве что инсталлер классный (был). Spacewalk мертв — это продукт с которым даже в редхете кроме сейлзов никто работать не хочет. :-(

6) На Борту NASA. Собственно я понимаю что именно через них Вивек поддерживал опенстэк?
2) Ага, понял. OpenStack в Suse выбрали, потому что он перспективен, а Spacewalk, потому что в Suse не много правильных решений за последние 10 лет. :-)

6) Скорее наоборот, NASA нашли, через кого можно продавить OpenStack. По крайней мере, с технической точки зрения в этом IaaS нет ничего особенного, а когда проект столь активно начал набирать сторонников… это наводит на определённые мысли. ;-)
Ваши колкости затупились на втором reply.

2) Что вы все в одну бочку то катите? Сами удачно разделили свои замечания. Да, неправильно со спейсволком поступили (кто знает суть дела не может не согласится). А с OpenStack правильно. Хотя бы в том плане что они его поддерживают на стадии когда это классный и современный (так и лезет добавить — своевременный) продукт.

6) Ну теперь совсем меня доканали. То есть теперь не Вивек главный а НАСА главная? Вы там решитесь. Я вам впорос задал что б узнать что то новое. А ваш интеллект куда-то рассплылся в смаилике.

Есть в ОпенStack особенное. Он совсем опен сурс. С самого начала и c самой многосторонней поддержкой. И без каких либо but or maybe.
Да, неправильно со спейсволком поступили (кто знает суть дела не может не согласится).
А расскажите суть дела — очень интересно. Можно даже отдельным постом. Если лениво — просто пруфлинки. Признаюсь честно, учитывая сколько белиберды вы написали в своём первом комментарии тут, не рассчитываю получить сколько-нибудь ценной информации.

То есть теперь не Вивек главный а НАСА главная?
Что тут не понятно то? Первоначально проект разрабатывался в NASA, потом они подружились с Кундра, и благодаря ему, получили возможность использовать административный ресурс.

Есть в ОпенStack особенное. Он совсем опен сурс. С самого начала и c самой многосторонней поддержкой. И без каких либо but or maybe.
Ну вот, очередной пример того, что вы «плаваете» в вопросе. С самого своего начала OpenStack упрекали в том, что проект не является «вендор-независимым» и что всё ключевые решения по его развитию принимали сотрудники всего пары компаний. После месяцев припераний по этому поводу, всё же было принято решение (всего месяц назад!!) сделать проект более открытым. (подробности)
Было бы очень неплохо, если бы они его допилили до нормального состояния. А то вещь интересная, но при определённых условиях сильно прожорливая.
В текущем состоянии glusterfs не может использоваться как универсальное хранилище данных. То есть под любые типы хранимой информации. Например как хранилище изображений для нагруженного веб-сервиса еще более-менее тянет(и то без своей репликации), а вот хран для php-файлов уже никак(много-много мелкого файла). Скорость падает катастрофически.
Cтоит включить репликацию(а она на уровне файлов, так как gluster — это по сути демон объединяющий диски с традиционными fs) и все затормаживается еще раза в 2-3.
Мне gluster очень нравится. Из всего с чем я работал, за исключением GPFS, это одна из лучших распределенных файловых систем.
И есть мнение, что если gluster доведут до ума — перенесут в ядро+сделают свою локальную fs и тогда репликацию можно будет реализовать блоками, то можно будет праздновать появление полноценного конкурента айбиэмовской системе.

В общем ждем GFS+Gluster = полноценная быстрая распределенная реплицируемая легко расширяемая фс.

НЛО прилетело и опубликовало эту надпись здесь
О, очередной ниосилятор. :-) Тысячи компаний по всему миру используют продукты Red Hat и довольны (Кстати, JBoss от RH уже пятый год подряд занимает первое место в рейтинге удовлетворённости клиентов.), но всегда найдётся кто-нибудь, у кого «всё валится из рук».

Если профнепригоден — иди винду админить. :-D
НЛО прилетело и опубликовало эту надпись здесь
Ну а я 5 лет проработал в крупнейшем европейском датацентре, так что кое-что понимаю и про GFS и про КVM и про много что ещё. И все там отлично работает в продакшене, если ты бы не поставил — это твои личные трудности.

ps: JBoss тут при том, что это тоже продукт RH и тоже отличного качества.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
За последние два года перепробовал все кластерные файлухи.
То что написано здесь — www.pentarh.com/wp/2008/07/04/cluster-filesystems/ — абсолютно верно.
Но я не понимаю Вашего категорического неприятия гластера.
У любого продукта есть своя ниша.

У меня, в конкретной узкой нише прижился только glusterfs.
Используется он как агрегатор-раздатчик серверов/дисков. Отказоустойчивость сделана на drbd/heartbeat. Хорошо работает только в связке с файловым кэшем ОС. Чем больше памяти на сервере тем лучше. После перезапуска очень ощутимые тормоза пока кэш заполняется.
В продакшене больше года, пару раз расширялся на лету. ПОКА сильных нареканий нет. Но только пока. У меня нет данных, как оно себя будет вести при увеличении кол-ва серверов.
Сделано так не от хорошей жизни… не у всех есть бюджет на десяткокилобаксовые стораджи и не менее килобаксовые выплаты ibm-у за их, безуословно хорошую фс.

Каждые полгода приходится возвращаться к теме выбора фс под очередное хранилище… больное место.
Были еще надежды на pohmelfs… надо кстати глянуть как там дела обстоят.
НЛО прилетело и опубликовало эту надпись здесь
>За последние два года перепробовал все кластерные файлухи.

Пользуясь случаем, — можно услышать отзыв о sheepdog?
sheepdog заточен под kvm и виртуальные машины, потому прошел сильно мимо моей выборки тестируемых фс.
Меня в первую очередь интересовали posix-совместимые фс, или как минимум те, у которых была хоть какая-то posix-совместимость. обусловлено это архитектурой существующих проектов.
Но спасибо что указали на неё, всегда интересно пощупать что-то новое.
Это новое будет в Proxmox2 — новом убийце vmware :) — поэтому очень профильная для данной статьи система.
Большое кол-во мелких фалйлов — это не для гластера, я это еще в первом своем посте написал. А вот отдача средних файлов 100Кб-100Мб — вполне себе шуршит, с оговорками конечно же.
Поправка, не только над ext3. работает на любой posix-совместимой ФС.
А какая удачнее? Из всех что я пробовал — только гластер более менее и заработал. Остальные вообще в опе были.

GPFS — прелесть. Когда я её тестировал — просто рыдал навзрыд, как же она хороша.
И я бы с радостью её купил, тока денег на неё недают. А сам столько не зарабатываю -)
Можно конечно и втихую её юзать, но это чревато.
GlusterFS — «cloud storage»?
OMG. Да он уже после 10 узлов уходит в отказ. Какой там cloud.
Зарегистрируйтесь на Хабре , чтобы оставить комментарий

Публикации

Истории