Смотрите какое дело при подсчете «реальной емкости» против емкости дисков.
Возьмем две разные машины с двигателем 1.5 литра, и две с двигателями по 2.0. Будете ли вы считать реальную мощность с литра и сравнивать все машины по лс/литр?
С комплексными ИТ системами примерно та же история. Вам нужна конкретная продуктивная емкость хранения при определенной вычислительной мощности и определенном уровне отказоустойчивости под конкретные задачи и данные. Система 1 делает это за X руб, Система 2 за Y, Система 3 за Z.
При этом система 1 делает это на A дисках, 2 — на B, 3 на С. Какая разница сколько дисков там стоит внутри, если стоимость софта, использующего меньше дисков, превышает стоимость остальных дисков? Какая принципиальная разница какой идет системный оверхед, если итоговые ресурсы полностью удовлетворяют тех требованиям, а в бюджет укладывается?
Если у вас есть сомнения в том, что заявленная итоговая продуктивная емкость системы на конкретно ваших данных не будет соответствовать тех требованиям из-за специфики данных и низких коэффициентов компрессии — проводите пилот, проверяйте и пересчитывайте конфигурации.
И снова — пусть он будет не 3:1, а 2.5 или даже упаси Ньютон 1.5:1.
Система стоит X рублей, ТЗ удовлетворяет, при этом по конкурсу проходит. После того как ТЗ удовлетворено — не имеет смысла обсуждать что там под капотом, остается только сравнивать стоимость.
Спасибо за ваше мнение, Георгий, а в чем, собственно, вопрос?
Инструмент один, FIO. Достаточно годный для вас инструмент? Профили нагрузок под каждый тест можно найти без всяких проблем, X Ray сам всего лишь инструмент автоматизации и визуализации. А дальше можете эти профили скормить в HCI Bench или вообще самостоятельно построить тестовую платформу. Вам лично не составит это труда, думаю, сделать это 100% самостоятельно.
Для тех же, кто менее продвинут, есть ссылка в тексте на другую мою статью как. Повторю здесь в комментарии: habr.com/ru/company/nutanix/blog/348182
Согласно официальному документу «Cisco HyperFlex 4.0 for Virtual Server Infrastructure with VMware ESXi» (https://www.cisco.com/c/en/us/td/docs/unified_computing/ucs/UCS_CVDs/hx_4_vsi_vmware_esxi.html)
RF3 рекомендуется для продуктивных систем, соответственно минимальный продуктивный кластер состоит из 5 узлов.
RF2 используется в непродуктивных системах (тест, разработка) и в метрокластерах. Поскольку каждое плечо метрокластера имеет RF2, то фактическое количество копий данных равно 4 и соотв можно обойтись без RF3.
Георгий, это у вас какие то свои термины и понимание того, что такое гипервизор.
Senior director, virtualization business at Red Hat:
“KVM is a bare-metal hypervisor (also known as Type I)”
It is a myth that KVM is not a Type-1 hypervisor. KVM converts Linux into a Type-1 hypervisor. There is only one kernel that is used (and that is the Linux kernel, which has KVM included). On the flip side, I can make an argument that Xen is not a Type-1 hypervisor, because the CPU and memory is scheduled by the hypervisor, but IO is scheduled by Dom0, which is a guest (so it's not bare metal). In the KVM architecture, the CPU, memory, and IO are scheduled by the Linux kernel with KVM.
При полноценной виртуализации можно запускать любую x86 ОС, не только Linux.
Не подскажете где подробно рассказывается как именно запускается *всевозможный* Linux, в каком формате диски, как мигрировать с одного хоста на другой?
1. Почитать отзывы, тематические форумы
2. Спросить — а есть ли референсы?
3. Найти текущих пользователей, узнать у них напрямую чо как
4. Если заказчик большой, а слайды красивые — купить небольшую систему и нагрузить ее по самые помидоры, посмотреть как работает.
Только я повторю вопрос — какая связь краткого руководства по проведению *результативных* пилотов для инженеров вендора / партнера с конкретно вашей болью или общими размышлениями над сферической гиперковенргентной системой?
Иными словами, у вас есть критика самой статьи или изложенных в ней мыслей, а не рассуждения вокруг?
Георгий, это как-то противоречит общей теории или последовательности действий при проведении пилота?
Если у вас есть такая боль и печальный опыт — значит надо добавить такие тесты с измеряемым результатом и четкими критериями pass / fail.
Я понимаю вашу боль. Но такие случаи все же не так часто включают в тесты отказоустойчивости.
Отключение линков, вылет диска, выключение узла / контроллера, сплит-брейн, имитация выключения ЦОДа для метро-кластера, исследование влияния ребилда кластера на производительность — это более встречающиеся случаи.
Как я уже писал в habr.com/ru/post/321178 — все начинается с модели угроз. Нет описанной угрозы — нет теста / защиты.
Что то мне подсказывает, что человек, делающий такое, никакими статьями и учебниками не руководствуется.
Но вернемся к вопросу — вы вольны написать правильную статью. Займет у вас не сильно больше времени, чем написание вот всех этих обличительных комментариев.
И есть еще одно подозрение — что после статьи такого уровня у вас сменится работа и вырастет зарплата
Возьмем две разные машины с двигателем 1.5 литра, и две с двигателями по 2.0. Будете ли вы считать реальную мощность с литра и сравнивать все машины по лс/литр?
С комплексными ИТ системами примерно та же история. Вам нужна конкретная продуктивная емкость хранения при определенной вычислительной мощности и определенном уровне отказоустойчивости под конкретные задачи и данные. Система 1 делает это за X руб, Система 2 за Y, Система 3 за Z.
При этом система 1 делает это на A дисках, 2 — на B, 3 на С. Какая разница сколько дисков там стоит внутри, если стоимость софта, использующего меньше дисков, превышает стоимость остальных дисков? Какая принципиальная разница какой идет системный оверхед, если итоговые ресурсы полностью удовлетворяют тех требованиям, а в бюджет укладывается?
Если у вас есть сомнения в том, что заявленная итоговая продуктивная емкость системы на конкретно ваших данных не будет соответствовать тех требованиям из-за специфики данных и низких коэффициентов компрессии — проводите пилот, проверяйте и пересчитывайте конфигурации.
И снова — пусть он будет не 3:1, а 2.5 или даже упаси Ньютон 1.5:1.
Система стоит X рублей, ТЗ удовлетворяет, при этом по конкурсу проходит. После того как ТЗ удовлетворено — не имеет смысла обсуждать что там под капотом, остается только сравнивать стоимость.
Инструмент один, FIO. Достаточно годный для вас инструмент? Профили нагрузок под каждый тест можно найти без всяких проблем, X Ray сам всего лишь инструмент автоматизации и визуализации. А дальше можете эти профили скормить в HCI Bench или вообще самостоятельно построить тестовую платформу. Вам лично не составит это труда, думаю, сделать это 100% самостоятельно.
Для тех же, кто менее продвинут, есть ссылка в тексте на другую мою статью как. Повторю здесь в комментарии: habr.com/ru/company/nutanix/blog/348182
RF3 рекомендуется для продуктивных систем, соответственно минимальный продуктивный кластер состоит из 5 узлов.
RF2 используется в непродуктивных системах (тест, разработка) и в метрокластерах. Поскольку каждое плечо метрокластера имеет RF2, то фактическое количество копий данных равно 4 и соотв можно обойтись без RF3.
Senior director, virtualization business at Red Hat:
“KVM is a bare-metal hypervisor (also known as Type I)”
It is a myth that KVM is not a Type-1 hypervisor. KVM converts Linux into a Type-1 hypervisor. There is only one kernel that is used (and that is the Linux kernel, which has KVM included). On the flip side, I can make an argument that Xen is not a Type-1 hypervisor, because the CPU and memory is scheduled by the hypervisor, but IO is scheduled by Dom0, which is a guest (so it's not bare metal). In the KVM architecture, the CPU, memory, and IO are scheduled by the Linux kernel with KVM.
Не подскажете где подробно рассказывается как именно запускается *всевозможный* Linux, в каком формате диски, как мигрировать с одного хоста на другой?
Fibre Channel использует Fiber кабели.
Постоянно их путаю.
2. Спросить — а есть ли референсы?
3. Найти текущих пользователей, узнать у них напрямую чо как
4. Если заказчик большой, а слайды красивые — купить небольшую систему и нагрузить ее по самые помидоры, посмотреть как работает.
Только я повторю вопрос — какая связь краткого руководства по проведению *результативных* пилотов для инженеров вендора / партнера с конкретно вашей болью или общими размышлениями над сферической гиперковенргентной системой?
Иными словами, у вас есть критика самой статьи или изложенных в ней мыслей, а не рассуждения вокруг?
Если у вас есть такая боль и печальный опыт — значит надо добавить такие тесты с измеряемым результатом и четкими критериями pass / fail.
Отключение линков, вылет диска, выключение узла / контроллера, сплит-брейн, имитация выключения ЦОДа для метро-кластера, исследование влияния ребилда кластера на производительность — это более встречающиеся случаи.
Как я уже писал в habr.com/ru/post/321178 — все начинается с модели угроз. Нет описанной угрозы — нет теста / защиты.
Что же это, получается вы в Simplivity используете не предназначенный для этого протокол?
Это утверждение неверно, потому что используется в виде parity в RAID.
Но вернемся к вопросу — вы вольны написать правильную статью. Займет у вас не сильно больше времени, чем написание вот всех этих обличительных комментариев.
И есть еще одно подозрение — что после статьи такого уровня у вас сменится работа и вырастет зарплата