Так как HOS CG — все же не полный стек NFV, а оптимизированный под телко-задачи VIM (+ часть NFVI согласно модели ETSI), то в тему самих VNF (как и VNF оркестратора и менеджера) в статье не погружались, сфокусировавшись на VIM/NFVI-уровне.
CG Linux — от WR, да, как и CG KVM, AVS и accelerated vNIC'и.
Дополнительный тюнинг непосредственно VIM есть в слое управления:
доработки Nova / Neutron / Horizon для работы с CG-компонентами с меньшими задержками и большей производительностью
«коробочный» HA
автоматизация восстановления после сбоев контроллеров, узлов и VNF
клиентский API/SDK для VNF
доработка Heat и планировщика Nova
расширение статистик Ceilometer (загрузка отдельных NIC, TX/RX фреймы/байты/ошибки) и возможностей их агрегации и выгрузки (в т.ч. в CSV)
расширенный fault management (поддержка SNMPv2c, алерты в Horizon и CLI, интерфейс для health checks внутри VNF)
По Nova — выбор хоста для размещения VNF в соответствии с профилем нагрузки — задача как раз Nova Scheduler, доработанного с учетом возможностей AVS и WR CG Linux (метаданные для учета скорости сетевых интерфейсов, текущей загрузки каналов, I/O based NUMA scheduling и пр.). Сама реализация описана в большом количестве различных материалов по Nova в Kilo для «стандартного» libvirt, здесь сделана доработка Nova под возможности доработанного libvirt в WR Linux.
Поддержка живой миграции ВМ с DPDK и другие особенности из whitepaper также относятся к Nova.
По Heat — доработка в части поддержки WR protection groups и ускорения реакции на оповещения о сбоях.
Out-of-box в текущей версии HP Helion OpenStack поддерживается до 100 физических узлов и до 4000 ВМ.
Есть техническая возможность реализации более крупных внедрений, что было сделано в ряде инсталляций, но это требует привлечения HP Helion Professional Services для детальной проработки архитектуры решения с последующим взятием его на поддержку.
В ожидаемом в конце года следующем релизе эти цифры с высокой вероятностью будут существенно увеличены за счет гораздо более гибкой и масштабируемой архитектуры развертывания, детали сообщить мы пока не можем.
Ironic в текущем релизе поддерживается только для развертывания управляющих узлов с помощью TripleO, есть планы по дальнейшему развитию.
Возможность включения Magnum в следующие релизы сейчас рассматривается R&D и продуктовой командой.
ShapovalovTS, для задач HPC есть отдельное решение: www.hp.com/helion/hpc
В его рамках OpenStack используется для развертывания и управления ВМ под задачи пре/пост-процессинга, а физические серверы находятся под управлением HP CMU, как и в классических HPC-кластерах.
В текущей версии Helion OpenStack Ironic используется только для развертывания контроллеров и вычислительных узлов KVM.
Базовая стоимость подписки Helion OpenStack (без учета региональных особенностей) в прайс-листе США составляет $1200 в год за один управляемый сервер с поддержкой 9x5 и $2200 — с поддержкой 24x7.
Для уточнения локальной стоимости лучше обратиться к вашему менеджеру по работе с заказчиками/партнерами в HP.
DicsyDel и tzong, ситуация с позиционированием Eucalyptus в облачном портфеле HP довольно проста: продукт продолжает развиваться с прицелом на тех заказчиков, которые давно и плотно сидят на сервисах Amazon, используют много смежных продуктов в этой экосистеме либо самописное ПО, работающее со стеком AWS API и при этом по тем или иным причинам хотят часть приклада и данных держать у себя локально в частном облаке, с этими API максимально совместимом.
Для решения всех остальных задач предназначены другие продукты портфолио HP Helion, в первую очередь Helion Platform (OpenStack, Development Platform), Helion CloudSystem и др.
Сложности при масштабировании ceilometer известны, поэтому в актуальном релизе Helion OpenStack 1.1 он поддерживается в «тестовом режиме» с ограниченным набором метрик. Более детальная информация доступна в официальной документации. Как упомянуто в материалах по ссылке, в следующих релизах для масштабируемого и отказоустойчивого сбора метрик планируется использование OpenStack Monasca.
Ситуация с поддержкой availability zones в текущем релизе также описана в документации. «Из коробки» в данный момент AZ не поддерживаются, и для реализации такой архитектуры требуется привлечение HP Helion OpenStack Professional Services.
Пример такого сетапа:
Так как HOS CG — все же не полный стек NFV, а оптимизированный под телко-задачи VIM (+ часть NFVI согласно модели ETSI), то в тему самих VNF (как и VNF оркестратора и менеджера) в статье не погружались, сфокусировавшись на VIM/NFVI-уровне.
CG Linux — от WR, да, как и CG KVM, AVS и accelerated vNIC'и.
Дополнительный тюнинг непосредственно VIM есть в слое управления:
Более глубокая техническая информация есть в официальном WP www8.hp.com/h20195/v2/GetPDF.aspx/4AA5-9581ENW.pdf,
Более детальная информация есть в technical WP на официальном сайте: www8.hp.com/h20195/v2/GetPDF.aspx/4AA5-9581ENW.pdf, ниже краткий обзор.
По Nova — выбор хоста для размещения VNF в соответствии с профилем нагрузки — задача как раз Nova Scheduler, доработанного с учетом возможностей AVS и WR CG Linux (метаданные для учета скорости сетевых интерфейсов, текущей загрузки каналов, I/O based NUMA scheduling и пр.). Сама реализация описана в большом количестве различных материалов по Nova в Kilo для «стандартного» libvirt, здесь сделана доработка Nova под возможности доработанного libvirt в WR Linux.
Поддержка живой миграции ВМ с DPDK и другие особенности из whitepaper также относятся к Nova.
По Heat — доработка в части поддержки WR protection groups и ускорения реакции на оповещения о сбоях.
По Neutron — работа с AVS по ML2.
Есть техническая возможность реализации более крупных внедрений, что было сделано в ряде инсталляций, но это требует привлечения HP Helion Professional Services для детальной проработки архитектуры решения с последующим взятием его на поддержку.
В ожидаемом в конце года следующем релизе эти цифры с высокой вероятностью будут существенно увеличены за счет гораздо более гибкой и масштабируемой архитектуры развертывания, детали сообщить мы пока не можем.
Возможность включения Magnum в следующие релизы сейчас рассматривается R&D и продуктовой командой.
Графически это можно представить так:
В его рамках OpenStack используется для развертывания и управления ВМ под задачи пре/пост-процессинга, а физические серверы находятся под управлением HP CMU, как и в классических HPC-кластерах.
В текущей версии Helion OpenStack Ironic используется только для развертывания контроллеров и вычислительных узлов KVM.
Базовая стоимость подписки Helion OpenStack (без учета региональных особенностей) в прайс-листе США составляет $1200 в год за один управляемый сервер с поддержкой 9x5 и $2200 — с поддержкой 24x7.
Для уточнения локальной стоимости лучше обратиться к вашему менеджеру по работе с заказчиками/партнерами в HP.
Для решения всех остальных задач предназначены другие продукты портфолио HP Helion, в первую очередь Helion Platform (OpenStack, Development Platform), Helion CloudSystem и др.
Ситуация с поддержкой availability zones в текущем релизе также описана в документации. «Из коробки» в данный момент AZ не поддерживаются, и для реализации такой архитектуры требуется привлечение HP Helion OpenStack Professional Services.
Пример такого сетапа: