Пара для записи выбирается случайно, репликация поблочно, запись синхронная. Можно увеличить/ уменьшить количество копий блоков, на уровне ВМ. Nutanix пытается растащить данные между несколькими коробками если блоков несколько.
Я не готов ответить на вопрос про величину задержки.
В конфигурации с тремя нодами система гарантирована переживет потерю любой ноды. Время ребилда зависит от многих факторов, но надо понимать что поскольку нет RAID, то, при выходе из строя диска, данные ребилдятся со всех дисков и на все диски, что намного быстрее… Если вопрос про софт, то он вполне надежен — решению не первый год.
Доступное место считается по простой формуле, сложить пространство на все узлах и поделить попалам. (порядка 50ГБ отъедается от SSD на каждом узле для своих нужд). Новый узел добавляется просто. кнопкой Add.
В кластер можно объединять любые узлы с разной конфигурацией, часть узлов может иметь больше SSD, меньше SATA, наоборот. Есть определенный выбор CPU/ количества RAM.
Ньюанс в том, что при малом количестве узлов может быть некий дисбаланс распределения данных между емкими и быстрыми узлами.
Одно из удобств расширения блоками в том, что Вы знаете сколько будет стоить апгрейд на любое количество. При это вместе с емкостью у растет и скорость. Сейчас 20 ВМ, а через год надо 200 и это стоит в 10 раз больше. Классическая СХД, так просто не маштабируется, тут и лицензирование может быть другое и замена контроллеров, помимо того что это непредсказуемо это, как правило, дороже.
В случае сбоев — минимально надо 2 узла для работы, это деградированое состояние, но если хватит места Nutanix сделает две копии данных.
В случае включения выключения коробки тоже все просто CVM загрузились собрали кластер появился сторадж. Если вопрос в том, как включать — включать все сразу.
Мультисайт. Растянуть кластер не получиться (пока). Возможна эта фича будет. Есть асинхронная репликация, есть возможность включить машину на резервной площадке из консоли управления Nutanix. Есть интеграция c SRM.
Решение не только под VDI, но и под серверную виртуализацию. Нишевое — согласен, но виртуализация практически везде есть. Платформа так же работает с Big Data — Hadoop, Splunk.
А что кроме HA есть для отказоустойчивости ВМ? Чтобы Вы еще хотели?
iSCSI — сам протокол у всех одинаковый, и в данном случае протокол зависит от гипервизора. Отличие от остальных решений, что серверы используются не только как вычислительные узлы гипервизора, но и реализуют отказоустойчивую СХД. За счёт того что данные расположены локально мы получаем большую скорость. За счёт того, что всё реализовано программно — гибкость.
В данном документе чуть более подробно написано как защищаются данные:
go.nutanix.com/TechNoteNutanixSystemReliability_LP.html
Если кратко, в случае отказа возможны 2 варианта:
1) мы теряем один или несколько дисков, или саму CVM Nutanix. Тогда данные запрашиваются с других узлов, средствами MPIO гипервизора происходит переключение, как у обычных СХД. Для ВМ это незаметно, есть деградация по скорости, чем больше узлов тем менее заметная.
2) Если мы теряем целиком узел, то данные ВМ доступны на других узлах, и могу быть там перезапущены — вручную или средствами HA, например.
При это каждый из гипервизоров видит пространство как общедоступный раздел/шару. Поверх этого работают все фичи гипервизора: vMotion/Live migration; HA; SCV; DRS итд.
Кратко процесс обновления: прошивка заливается на один узел, он распространяет его на другие, по очереде перезагружаются ноды. Делается из командной строки. Обещают автоматизировать в следующих версиях, сделать из GUI.
Привязка к железу сделана из маркетинговых соображений, это мое мнение. В прицепе, есть возможны варианты купить Nutanix на другом железе.
Как таковых аналогов мне не известно, если брать только СХД часть, то очень похоже на LeftHand, Starwind итд.
Конфиг серваков мне совершенно не понятен, почему так мало памяти? Учитывая что это MS доступно к использованию всего по 32 ГБ на узел, иначе фаловер не сработает. Надо было брать 4 DL360/380. И дешевле вышло бы.
На Essential нет даже HA. Наверно речь о Essential Plus. Переключение без перезагрузки ВМ возможно, но у VMware это одно ядро (пока). Есть ещё такое решение количество ядер не ограничено www.youtube.com/watch?v=5wAUq5lVNBI
Фактически два сервера синхронизированы.
30 тысяч это какой % от стоимости?
Я не готов ответить на вопрос про величину задержки.
В конфигурации с тремя нодами система гарантирована переживет потерю любой ноды. Время ребилда зависит от многих факторов, но надо понимать что поскольку нет RAID, то, при выходе из строя диска, данные ребилдятся со всех дисков и на все диски, что намного быстрее… Если вопрос про софт, то он вполне надежен — решению не первый год.
В кластер можно объединять любые узлы с разной конфигурацией, часть узлов может иметь больше SSD, меньше SATA, наоборот. Есть определенный выбор CPU/ количества RAM.
Ньюанс в том, что при малом количестве узлов может быть некий дисбаланс распределения данных между емкими и быстрыми узлами.
Одно из удобств расширения блоками в том, что Вы знаете сколько будет стоить апгрейд на любое количество. При это вместе с емкостью у растет и скорость. Сейчас 20 ВМ, а через год надо 200 и это стоит в 10 раз больше. Классическая СХД, так просто не маштабируется, тут и лицензирование может быть другое и замена контроллеров, помимо того что это непредсказуемо это, как правило, дороже.
В случае сбоев — минимально надо 2 узла для работы, это деградированое состояние, но если хватит места Nutanix сделает две копии данных.
В случае включения выключения коробки тоже все просто CVM загрузились собрали кластер появился сторадж. Если вопрос в том, как включать — включать все сразу.
Мультисайт. Растянуть кластер не получиться (пока). Возможна эта фича будет. Есть асинхронная репликация, есть возможность включить машину на резервной площадке из консоли управления Nutanix. Есть интеграция c SRM.
Решение не только под VDI, но и под серверную виртуализацию. Нишевое — согласен, но виртуализация практически везде есть. Платформа так же работает с Big Data — Hadoop, Splunk.
А что кроме HA есть для отказоустойчивости ВМ? Чтобы Вы еще хотели?
В данном документе чуть более подробно написано как защищаются данные:
go.nutanix.com/TechNoteNutanixSystemReliability_LP.html
Если кратко, в случае отказа возможны 2 варианта:
1) мы теряем один или несколько дисков, или саму CVM Nutanix. Тогда данные запрашиваются с других узлов, средствами MPIO гипервизора происходит переключение, как у обычных СХД. Для ВМ это незаметно, есть деградация по скорости, чем больше узлов тем менее заметная.
2) Если мы теряем целиком узел, то данные ВМ доступны на других узлах, и могу быть там перезапущены — вручную или средствами HA, например.
При это каждый из гипервизоров видит пространство как общедоступный раздел/шару. Поверх этого работают все фичи гипервизора: vMotion/Live migration; HA; SCV; DRS итд.
Что касается скорости — заявлено до 20 000 IOPS на узел. Это синтетика. С точки зрения реально производительности я бы ориентировался, я давал ссылку, вот на это: go.nutanix.com/rs/nutanix/images/Nutanix_VDI_Sizing_Guideline.pdf
5000 реальных, честных IOPS, что очень неплохо.
Общий принцип тут:
go.nutanix.com/TechNoteNutanixPerformance_LP.html
go.nutanix.com/TechNoteNutanixSystemReliability_LP.html
go.nutanix.com/TechNoteNutanixSystemScalbility_LP.html
Microsoft SQL Server Best Practices
go.nutanix.com/rs/nutanix/images/sql-on-nutanix-bp.pdf
Решение начиналось как VDI, сейчас это и серверная виртуализация
Как таковых аналогов мне не известно, если брать только СХД часть, то очень похоже на LeftHand, Starwind итд.
Цены правильные — GPL, но в России цены предоставляются по запросу.
Фактически два сервера синхронизированы.
Это без учета больших скидок, которые действуют в данный момент.