Комментарии 8
"как недавно вышло с дисками HPE " - ну не так уж и недавно и не 40 тысяч часов а что то 32 тысячи с небольшим , хотя как вчера было.
"К 2019 Huawei перешел на Arm " - жаль что это игнорируют некоторые производители, те что до сих пор на х86 выпускают и продают, не поднимаясь выше middle сегмента по производительности.
"работать с кроиловом, и потом нести ответственность при попадалове" - согласен, вся эта распределенная "кухня" не добавляет надежности и производительности в отличии от стандартных схем (сервер-сеть-система хранения данных) , но каждый кузнец своей судьбы.
"С как-бы всеядными MSA" - рискованно тоже, но как вариант заполучить корзину от vnx и подключив к её к серверу(чем производительнее тем лучше) через интерфейс развернуть trueNAS - получится одно контроллерный всеядный (по дискам) массив. При этом не забывать о своевременном резервном копировании.
СХД это инструмент. Просто выбирайте инструмент под задачу. Для многих задач среднего бизнеса динозавра MSA P2000 на обычных SATA дисках в RAID10 хватает с головой. При этом они имеют вполне адекватное резервирование внутри себя и неплохую скорость наружу по SAS\FC. Жаль они потихоньку пропадают с б\у рынка, возраст. Железки отличные.
>>Продолжение на...
А че так можно было?!
А есть кто-нибудь, кто в продуктиве крутит storage space direct (S2D)? Я о таких ни разу не слышал, хотя технология мне нравится.
Поделитесь опытом, насколько стабильно оно работает и какие подводные камни встретились на пути.
Есть такие, даже не знаю, как описать свой опыт... Есть и положительные моменты, есть увы и грусти полный вагон.
Все как сказал автор, экономим на кадрах (делаем все сами по мануалам с МС) и строим все на SuperMicro.
Получаем 49 Тб полезного места (при двойном зеркалировании).
В двухнодовом кластере обязателен диск-свидетель.
Из явных плюсов небольшие затраты на старте — можно добавлять диски по мере роста.
Относительно легко все настроить (0-day opertaion), но вот что будет на следующий день, то тут надо вникать в проблемы.
Из того с чем мы столкнулись:
Если используете роли SoFS или FileServer, то обязательно карты с поддержкой RDMA, без этого система будет сильно нагружена по ЦПУ.
Сами сетевые карты желательно все одной модели и одной прошивки (ну вы это и так знаете).
При обслуживании нод, нужно включать специальный режим. Но после выключения этого режима, производительность будет ниже, пока не выполнится синхрон. Поэтому работы лучше планировать с запасом времени.
Столкнулись с такой проблемой, что периодически происходит BSOD одной ноды, когда доустанавливает диски. После этого роли уезжают на другие машины и иногда падают в аварийное состояние. Еще много чего было но это мелочи)
В целом систему используем с 2022 года. Можно получить хорошие показатели производительности, если выполнить все требования МС.
Пока учились настраивать были факапы. Кластер кстати на 2019-ом.
Поделитесь опытом, насколько стабильно оно работает и какие подводные камни встретились на пути.
Полно. Даталайн например. Ростелеком местами.
Оно стабильно, но.
У MS есть HCL, и в нем не все, ой как не все.
Подбор прошивка плюс драйвер - может быть болезненной.
parity \ double parity без настроек и кручения тестов может сделать очень больно, на пикабу будет сегодня или потом продолжение с буквами, а может и цифрами
Скорость работы storage space в Windows server 2025 – первое приближение и методология