Комментарии 7
Поделитесь опытом, как вы обеспечиваете гарантированное выделение ресурсов для ceph в гиперконвергентном режиме! Что будет, если нагрузка от ВМ на узле начнет бодаться за ресурсы процессора и/или память с ceph, особенно в момент выполнения перестройки ceph?
Ceph не люблю и не использую, но попробую ответить... Чтобы не было "боданий за ресурсы" вполне можно использовать cgroups
Вопрос был естественно со звездочкой и после некоторого веселого опыта))) cgroups и даже вынос ceph в виртуалку с проброшенными как устройство дисками не помогает, если включена переподписка. А облако без переподписки не очень интересно.
Ну как сказать... Когда начнется борьба за ресурсы (а она начнется) между вм, то переподписка будет упоминаться только в негативном контексте...
Вопрос действительно со звездочкой :)
Во многих решениях для оркестрации виртуальных машин есть возможность резервирования ресурсов под нужды гипервизора так умеет делать и Openstack. Расход памяти OSD-демонами при этом можно предсказать исходя из объема дисков, так можно уместиться в оперативку если правильно подобрать коэффициент и учесть потребности ОС гипервизора. SWAP при этом мы не используем совсем.
Для CPU немного интереснее, но смысл примерно в том же, nova умеет как резервировать CPU так и использовать конкретные ядра CPU в shared-режиме (через все тот же cpuset), посколько аллокацию CPU для OSD мы знаем из документации Ceph - остается просто забронировать нужное количество ресурса с учетом допустимых коэффициентов и на них не будет приходить нагрузка от виртуальных машин :)
Какая-то маркетинговая вода.
Гиперконвергенция в облаке – от VMware до OpenStack