Комментарии 8
А в чём конкурентное преимущество этого решения перед s2d, включенного в состав win 2019/2022 datacenter? На винде такое решение не очень понятно? на linux тоже не очень понятно зачем. тот-же proxmox соберет на ceph гиперконвергентную платформу (для тех кому хочется easy-to-use)
Прелесть управления HCI можно понять лишь в сравнении. Я, после работы с NUTANIX, даже смотреть не хочу в сторону ранее обожаемого PROXMOX. Один интерфейс, один API, один Teraform provider. Я в одну каску админинистрирую 13 кластеров NUTANIX. И это в фоне.
Автору топика: цен не нашел. Интересно познакомиться.
Конкурентное преимущество в том, что производитель vStack — российская компания, которая не ушла из России.
И ещё вопрос: как у вас реализован уровень SDS? Я не понимаю как это может работать поверх ZFS. Как устроена репликация данных? Обработка отказа накопителя? Холодное/горячее хранилище?
Можно где-то ознакомиться с техническими деталями?
Подробнее с техническими деталями вы можете познакомиться здесь: https://habr.com/ru/company/itglobalcom/blog/670818/, в разделе «Программно-определяемое хранилище (SDS)»
Сравнение с "другими стиральными порошками" интересное, конечно. Но на практике, с одной стороны, коммутаторы и маршрутизаторы из крупной сети обычно никуда не деваются, а значит специалисты для их обслуживания нужны по-прежнему. С другой - в классической архитектуре тоже ничего особо не мешает сделать ровно так же, как у вас на картинке про vStack, только ещё СХД (подключенную к той же паре коммутаторов) к ней пририсовав.
Что до SAN - отдельные SAN-коммутаторы сейчас и без всякой конвергенции берут только люди, которые точно знают, зачем им это надо, а не желающие возиться с отдельным стеком оборудования просто живут на iSCSI.
В сухом остатке - убрали обслуживание СХД, добавили обслуживание SDS+SDN. И совершенно не факт, что такой размен выгоден.
Нет вендорлока.
А ваш софт - это что? :)
Можно закупать аппаратное обеспечение потребительского сегмента и таким образом экономить на оборудовании некритичных сред, например, тестовых.
А без вас это нельзя делать? :)
Лимитирование ресурсов vCPU в реальном времени, в том числе автономное распределение квантов CPU в зависимости от степени overcommit, утилизации узла и нагрузки конкретной ВМ, благодаря чему показатели vCPU overcommit в промышленных кластерах иногда достигают 900%.
Классическое "Приборы? - 20!". Что такое оверкоммит в 900%? Когда на одном физическом ядре живут 10 виртуальных, которые ничего не делают? Это я хоть на домашней винде могу устроить. Когда на том же ядре живут 10 нагруженных виртуальных? Тут вместо слов интересно было бы сравнительный тест увидеть, как при оверкоммите падает производительность у VMWare/KVM/Hyper-V и как у вас. Плюс в облаках (тем более публичных) последние годы озабочены не только оверкоммитом, но и безопасностью, а там надо наоборот не об оверкоммите заботиться, а об изоляции вычислительных потоков разных гостей, какие у вас тут есть механизмы?
Плюс совершенно не освещен вопрос проблем масштабирования. При классической архитектуре разные компоненты (вычислительные ноды, дисковая подсистема, сеть) могут при необходимости апгрейдиться и масштабироваться независимо друг от друга. В гиперконвергентных же решениях в случае, когда у вас через год-другой после начала эксплуатации стали появляться узкие места, которые на старте были совершенно не очевидны, всё куда забавнее.
Технологической основой SDS является ZFS.
Которая, как известно, в случае более-менее нагруженных систем даже в качестве чисто локальной FS весьма чувствительна к тюнингу под конкретные задачи, иначе производительность можно получить ну очень странную. В связи с чем было бы очень интересно посмотреть, как ведет себя кластер под высокой разнородной нагрузкой.
Redundancy снизился, но пул продолжает работать, причём без потери производительности.
А можете показать тесты? Причем не только с потерянной нодой, но и во время регенерации при возвращении узла назад.
Облако без миграции ? Аналогов нет!
vStack изнутри: как устроена гиперконвергентная платформа