Pull to refresh
4
0
Иван Кровяков @vanez1985

Инфраструктурное железо и ПО

Send message
ayurtaykin, Axam, спасибо за комментарии!

Так как HOS CG — все же не полный стек NFV, а оптимизированный под телко-задачи VIM (+ часть NFVI согласно модели ETSI), то в тему самих VNF (как и VNF оркестратора и менеджера) в статье не погружались, сфокусировавшись на VIM/NFVI-уровне.

CG Linux — от WR, да, как и CG KVM, AVS и accelerated vNIC'и.

Дополнительный тюнинг непосредственно VIM есть в слое управления:
  • доработки Nova / Neutron / Horizon для работы с CG-компонентами с меньшими задержками и большей производительностью
  • «коробочный» HA
  • автоматизация восстановления после сбоев контроллеров, узлов и VNF
  • клиентский API/SDK для VNF
  • доработка Heat и планировщика Nova
  • расширение статистик Ceilometer (загрузка отдельных NIC, TX/RX фреймы/байты/ошибки) и возможностей их агрегации и выгрузки (в т.ч. в CSV)
  • расширенный fault management (поддержка SNMPv2c, алерты в Horizon и CLI, интерфейс для health checks внутри VNF)


Более глубокая техническая информация есть в официальном WP www8.hp.com/h20195/v2/GetPDF.aspx/4AA5-9581ENW.pdf,
celebrate, спасибо за комментарии.
Более детальная информация есть в technical WP на официальном сайте: www8.hp.com/h20195/v2/GetPDF.aspx/4AA5-9581ENW.pdf, ниже краткий обзор.

По Nova — выбор хоста для размещения VNF в соответствии с профилем нагрузки — задача как раз Nova Scheduler, доработанного с учетом возможностей AVS и WR CG Linux (метаданные для учета скорости сетевых интерфейсов, текущей загрузки каналов, I/O based NUMA scheduling и пр.). Сама реализация описана в большом количестве различных материалов по Nova в Kilo для «стандартного» libvirt, здесь сделана доработка Nova под возможности доработанного libvirt в WR Linux.
Поддержка живой миграции ВМ с DPDK и другие особенности из whitepaper также относятся к Nova.

По Heat — доработка в части поддержки WR protection groups и ускорения реакции на оповещения о сбоях.

По Neutron — работа с AVS по ML2.
Out-of-box в текущей версии HP Helion OpenStack поддерживается до 100 физических узлов и до 4000 ВМ.
Есть техническая возможность реализации более крупных внедрений, что было сделано в ряде инсталляций, но это требует привлечения HP Helion Professional Services для детальной проработки архитектуры решения с последующим взятием его на поддержку.

В ожидаемом в конце года следующем релизе эти цифры с высокой вероятностью будут существенно увеличены за счет гораздо более гибкой и масштабируемой архитектуры развертывания, детали сообщить мы пока не можем.
Ironic в текущем релизе поддерживается только для развертывания управляющих узлов с помощью TripleO, есть планы по дальнейшему развитию.
Возможность включения Magnum в следующие релизы сейчас рассматривается R&D и продуктовой командой.
Детальное описание процесса node failure handling есть в официальной документации

Графически это можно представить так:
image
ShapovalovTS, для задач HPC есть отдельное решение: www.hp.com/helion/hpc
В его рамках OpenStack используется для развертывания и управления ВМ под задачи пре/пост-процессинга, а физические серверы находятся под управлением HP CMU, как и в классических HPC-кластерах.

В текущей версии Helion OpenStack Ironic используется только для развертывания контроллеров и вычислительных узлов KVM.
Александр, добрый день!

Базовая стоимость подписки Helion OpenStack (без учета региональных особенностей) в прайс-листе США составляет $1200 в год за один управляемый сервер с поддержкой 9x5 и $2200 — с поддержкой 24x7.

Для уточнения локальной стоимости лучше обратиться к вашему менеджеру по работе с заказчиками/партнерами в HP.
DicsyDel и tzong, ситуация с позиционированием Eucalyptus в облачном портфеле HP довольно проста: продукт продолжает развиваться с прицелом на тех заказчиков, которые давно и плотно сидят на сервисах Amazon, используют много смежных продуктов в этой экосистеме либо самописное ПО, работающее со стеком AWS API и при этом по тем или иным причинам хотят часть приклада и данных держать у себя локально в частном облаке, с этими API максимально совместимом.

Для решения всех остальных задач предназначены другие продукты портфолио HP Helion, в первую очередь Helion Platform (OpenStack, Development Platform), Helion CloudSystem и др.
Сложности при масштабировании ceilometer известны, поэтому в актуальном релизе Helion OpenStack 1.1 он поддерживается в «тестовом режиме» с ограниченным набором метрик. Более детальная информация доступна в официальной документации. Как упомянуто в материалах по ссылке, в следующих релизах для масштабируемого и отказоустойчивого сбора метрик планируется использование OpenStack Monasca.

Ситуация с поддержкой availability zones в текущем релизе также описана в документации. «Из коробки» в данный момент AZ не поддерживаются, и для реализации такой архитектуры требуется привлечение HP Helion OpenStack Professional Services.
Пример такого сетапа:
image

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity