Как стать автором
Обновить

Комментарии 8

"как недавно вышло с дисками HPE " - ну не так уж и недавно и не 40 тысяч часов а что то 32 тысячи с небольшим , хотя как вчера было.

"К 2019 Huawei перешел на Arm " - жаль что это игнорируют некоторые производители, те что до сих пор на х86 выпускают и продают, не поднимаясь выше middle сегмента по производительности.

"работать с кроиловом, и потом нести ответственность при попадалове" - согласен, вся эта распределенная "кухня" не добавляет надежности и производительности в отличии от стандартных схем (сервер-сеть-система хранения данных) , но каждый кузнец своей судьбы.

"С как-бы всеядными MSA" - рискованно тоже, но как вариант заполучить корзину от vnx и подключив к её к серверу(чем производительнее тем лучше) через интерфейс развернуть trueNAS - получится одно контроллерный всеядный (по дискам) массив. При этом не забывать о своевременном резервном копировании.

СХД это инструмент. Просто выбирайте инструмент под задачу. Для многих задач среднего бизнеса динозавра MSA P2000 на обычных SATA дисках в RAID10 хватает с головой. При этом они имеют вполне адекватное резервирование внутри себя и неплохую скорость наружу по SAS\FC. Жаль они потихоньку пропадают с б\у рынка, возраст. Железки отличные.

>>Продолжение на...

А че так можно было?!

Ну да. И там плюсов больше, чем на хабре минусов

А есть кто-нибудь, кто в продуктиве крутит storage space direct (S2D)? Я о таких ни разу не слышал, хотя технология мне нравится.

Поделитесь опытом, насколько стабильно оно работает и какие подводные камни встретились на пути.

Есть такие, даже не знаю, как описать свой опыт... Есть и положительные моменты, есть увы и грусти полный вагон.

Все как сказал автор, экономим на кадрах (делаем все сами по мануалам с МС) и строим все на SuperMicro.
Получаем 49 Тб полезного места (при двойном зеркалировании).
В двухнодовом кластере обязателен диск-свидетель.
Из явных плюсов небольшие затраты на старте — можно добавлять диски по мере роста.
Относительно легко все настроить (0-day opertaion), но вот что будет на следующий день, то тут надо вникать в проблемы.

Из того с чем мы столкнулись:

  1. Если используете роли SoFS или FileServer, то обязательно карты с поддержкой RDMA, без этого система будет сильно нагружена по ЦПУ.

  2. Сами сетевые карты желательно все одной модели и одной прошивки (ну вы это и так знаете).

  3. При обслуживании нод, нужно включать специальный режим. Но после выключения этого режима, производительность будет ниже, пока не выполнится синхрон. Поэтому работы лучше планировать с запасом времени.

  4. Столкнулись с такой проблемой, что периодически происходит BSOD одной ноды, когда доустанавливает диски. После этого роли уезжают на другие машины и иногда падают в аварийное состояние. Еще много чего было но это мелочи)

В целом систему используем с 2022 года. Можно получить хорошие показатели производительности, если выполнить все требования МС.
Пока учились настраивать были факапы. Кластер кстати на 2019-ом.

Супер, спасибо что поделились опытом. Отблагодарил вас плюсиком в карму.

Поделитесь опытом, насколько стабильно оно работает и какие подводные камни встретились на пути.

Полно. Даталайн например. Ростелеком местами.

Оно стабильно, но.

  • У MS есть HCL, и в нем не все, ой как не все.

  • Подбор прошивка плюс драйвер - может быть болезненной.

  • parity \ double parity без настроек и кручения тестов может сделать очень больно, на пикабу будет сегодня или потом продолжение с буквами, а может и цифрами

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории