В курсе, как работает HPE catalyst, и Data Domain Boost.
Сделать Scalable NAS давно не проблема.
На своём веку я видел в ЦОД десятки заброшенных backup appliance, в том числе DD, без купленных подписок, с старым ПО как дерьмо мамонта.
Меня малость настораживает, зачем облачный провайдер с остервенением тащит в свой ЦОД проприетарщину? Кто будет оплачивать банкет? Госсектор, российский true bloody enterprise?
Дедупить на источнике умеет любой вменяемый софт резервного копирования. Причем тут NAS?
Но это не означает что backup агенты нужно везде рассовывать. По хорошему NAS тоже должен уметь жать и дедупить.
VMware VVOL с Hyper-Metro не работают.
В качестве MPIO нужно ставить Huawei UltraPath.
Если хосты подключены к нескольким СХД, и UltraPath ставить не по феншуй, то ждите сюрпризов от братьев по разуму при прошивке.
Там где хуавэй, всегда всё через (_|_)
Don't buy triple C products (cheap Chinese crap).
В Нокле если человек не прошел курсы, его на работы нельзя было выслать.
Получается я должен купить Xiaomi Mi5 за $300-400 и потратить пару вечеров на прошивки?
Тогда Xiaomi Mi5 нужно позиционировать как конструктор для создания солюшена из г@вна и палок. И цена ему $150-200.
В скольки датацентрах Вы видели питание более 15 кВт на стойку?
15кВт это 2х блейд-шасси на стойку (20-24U) или если очень оптимистично 3х блейд-шасси (36U).
Обычно в датацентрах с воздушным охлаждением 6-12 кВт. С такой нагрузкой ещё можно использовать free cooling. Т.е. это в прыжке 2х блейд-шасси и пол шкафа не проданного воздуха. Т.е. преимущество в плотности — это маркетинг.
Жизнь показала, проще поставить стандартные 2U серверы с дисками, с KVM, oVirt/OpenStack, Ceph (SDS) и не любить голову.
На 6кВт стойку это до 12х серверов, 4х 10Gb порта на сервер, и 48x портовый 10Gb ToR. 48 линков на стойку, не так и много.
При нагрузке 6-12кВт на стойку, отказ половины кондеев в контейнере/гермозоне не приводит к meltdown)
Ходил по Праге с грусным хлебалом, думал может не стоило оно переезжать?
Теперь хожу с довольной лыбой.
В курсе, как работает HPE catalyst, и Data Domain Boost.
Сделать Scalable NAS давно не проблема.
На своём веку я видел в ЦОД десятки заброшенных backup appliance, в том числе DD, без купленных подписок, с старым ПО как дерьмо мамонта.
Меня малость настораживает, зачем облачный провайдер с остервенением тащит в свой ЦОД проприетарщину? Кто будет оплачивать банкет? Госсектор, российский true bloody enterprise?
Дедупить на источнике умеет любой вменяемый софт резервного копирования. Причем тут NAS?
Но это не означает что backup агенты нужно везде рассовывать. По хорошему NAS тоже должен уметь жать и дедупить.
Проще на NAS с дедупом и компрессией по NFS бакапить.
Таки и BBM (blackberry messenger) нагнут на ключи?
Прощай Windows…
Какой чудесный бред, это как писать Java на бейсик. Ещё один уровень интерпретации.
VMware VVOL с Hyper-Metro не работают.
В качестве MPIO нужно ставить Huawei UltraPath.
Если хосты подключены к нескольким СХД, и UltraPath ставить не по феншуй, то ждите сюрпризов от братьев по разуму при прошивке.
Don't buy triple C products (cheap Chinese crap).
В Нокле если человек не прошел курсы, его на работы нельзя было выслать.
В ESXi нет HA, vMotion и т.п.
Дома конечно это не нужно...
Ценой нет? oVirt, Proxmox закрывают 90% запросов малого бизнеса местами переходящего в средний.
NetApp одна из лучших СХД для деплоя OpenStack.
Зачем эти глупости? CentOS + oVirt прекрасно работают.
У нас так один банчок чуть не налетел на грабли с hyper-v.
Тогда Xiaomi Mi5 нужно позиционировать как конструктор для создания солюшена из г@вна и палок. И цена ему $150-200.
Сейчас Moto X Play LTE 16Gb с почти чистым Android стоит меньше 16 тыс.
Входящий трафик с европейских спутников никак не контролируется.
Положить большую часть мостов TOR, VPN, Proxy для Ростелекома это пару минут.
15кВт это 2х блейд-шасси на стойку (20-24U) или если очень оптимистично 3х блейд-шасси (36U).
Обычно в датацентрах с воздушным охлаждением 6-12 кВт. С такой нагрузкой ещё можно использовать free cooling. Т.е. это в прыжке 2х блейд-шасси и пол шкафа не проданного воздуха. Т.е. преимущество в плотности — это маркетинг.
Жизнь показала, проще поставить стандартные 2U серверы с дисками, с KVM, oVirt/OpenStack, Ceph (SDS) и не любить голову.
На 6кВт стойку это до 12х серверов, 4х 10Gb порта на сервер, и 48x портовый 10Gb ToR. 48 линков на стойку, не так и много.
При нагрузке 6-12кВт на стойку, отказ половины кондеев в контейнере/гермозоне не приводит к meltdown)