Как стать автором
Обновить

Почему важно проверить ПО на вашей СХД высокой доступности (99,9999%)

Время на прочтение7 мин
Количество просмотров3.2K
Всего голосов 5: ↑5 и ↓0+5
Комментарии18

Комментарии 18

Но и спешить с обновлением не стоит. Многократно было так, что новая версия софта/прошивки несла с себе проблемы. С последующим отзывом и исправлением софта.
После выхода обновления нужно выждать определенный период. И только тогда ставить.

а лучше прочитать Release notes и решить, стоит ли вообще накатывать это обновление.
Ещё лучше погонять новую версию в тестовом контуре на тестовой СХД.
Это-то да, но мало у кого есть тестовая СХД аналогичная по контроллерам продуктивной.

И как, обещанный аптайм оно отстояло до аварии или нет?

Смотря за какой период считать аптайм)
Кстати, ещё одним пунктом к статье можно добавить своевременное продление сервиса на систему для оперативного устранения подобных проблем службой поддержки вендора, т.к. такие системы обычно содержат в себе очень большое количество проприетарных элементов (как программных, так и аппаратных).
диски еще можно менять (купить обычные и перепрошить под конкретный массив), то контроллеры/back/front интерфейсы — да, не поменяешь.

Аптайм считается очень просто: время аварии разделить на суммарное время с момента запуска в продакшен, умноженное на сто. Если оно меньше, чем 99.9999%, то вендор обосрамшись. Если больше — всё в пределах обещаний.

Что такое AP, FP и тому подобное на картинке draid?

AP,...,FP — это блоки чётности для RAID 5. HS — Hot Spare блоки. Суть в том, что RAID собирается не из дисков, а из блоков, на которые делятся все диски. Это не новая идея и она применяется практически всеми производителями современных СХД.

А что хранится в hot spare блоках? Очевидно что-то должно лежать для увеличения иопсов в нормальном режиме.


Если допустить, что данные то на картинке банально схема рейд-6.

В HS данные не хранятся. Увеличение IOPS достигается за счёт того, что нет выделенных дисков под HS (которые простаивают), как в традиционном RAID, собранном на дисках без разбиения на блоки. В результате, каждый диск содержит блоки с данными, блоки чётности и «пустые» блоки HS.
В RAID 6 будет примерно аналогичная картина, только для каждого страйпа будет 2 блока чётности и 1 блок HS.

Ещё вопросы:
1) картинка с draid-5 подозриьельнл напоминает распределение страйпов с контрольными суммами для raid 6
2) что означает фраза, что для draid-5 работа при восстановлении ведётся со всеми дисками группы. Это так работает и для любого обычного рейд-массива.

По 1 пункту, скорее всего, уже описал ситуацию в ответе на предыдущий комментарий.
Что касается второго пункта, тут акцент именно на DRAID (не путать с RAID). Это, конечно же, в терминологии IBM приводится в данной статье. За счёт распределения однотипных блоков по разным дискам, каждый диск содержит в себе блоки каждого типа (данные, чётность, hot spare). За счёт этого, более количество операций может выполняться параллельно во время ребилда (т.к. участвуют разные диски в процессе), что ведёт к более равномерной нагрузке на диски и вероятному уменьшению времени ребилда.

Не уверен, что написал понятно) По сути, логика работы обычного виртуализованного массива.
Однажды будет так: в 3 часа утра раздается звонок телефона, и индусо-негр говорит «Сэр, ваша система, глядя на какие-то странные метрики, решила, что вам пора обновляться, и я запустил обновление, не благодарите, и не вздумайте отключать СХД от интернета, а то он перестанет работать»
В один из моментов у вас закончились деньги на продление поддержки… В нынешних реалиях и советом всегда иметь бэкапы — иметь классическое коммерческое хранилище за овер-дохренилиард (а IBM очень хочет денег, хотя они все хотят) имеет смысл только если точно знаешь зачем это надо компании.
С поддержкой все в порядке, СХД еще менее года. Свежая модель, анонсирована в мае 2019 года.

Как вы думаете, когда контроллер решит, что bbu немного не в кондиции, что сделает эта СХД? Она выключит контроллер! А когда произведен второй bbu? В ту же дату, что и первый! Вероятность… Доступность, говорите ;)

Зарегистрируйтесь на Хабре, чтобы оставить комментарий