Спасибо за статью!
Тема новая и интересная, использовать ее не хочется, но иногда надо:))
В таком случае мы получим первую группу немного короче чем вторую, но это не проблема, так как в последних версиях ONTAP специально для этой цели оптимизировали механизм работы рейд груп, теперь допускается иметь достаточно большую разбежность рейдгрупп в одном агрегате.
Честно говоря я не знаю, что там сделали в последних версиях ONTAP на эту тему, но ведь чудес не бывает и разные RAID группы в агрегате обязательно будут приводить к различной производительности «частей» тома. Возможно они научились делать разные по длине страйпы, но производительность все равно будет страдать.
Интересно, насколько хорошо в действительности обстоит дело с поддержкой решений FlexPod. Поддержка вообще у всех вендоров отвратительная, а уж в случае стыков нескольких вендоров… не будет ли кейс мотаться между вендорами огромное время?
Данная процедура более чем стандартная, и описана в документации вендора (например, здесь)
Вообще говоря, такие операции как вывод узла из кластера нужно делать только тогда, когда 100% уверен в своих знаниях по этому вопросу и использовать только официальную документацию. А не так — прочитал хабр и пошел удалять ноды.
SAN LIF'ы можно не мигрировать
SAN LIF'ы не надо мигрировать в принципе. SAN полностью управляется мультипасингом, необходимо его проверить на всех хостах, использующих данный массив в качестве блочного таргета.
С другой стороны, ведь этот диск пока позиционируется для корпоративного сектора. А там RAID, spare, автоматический мониторинг состояния диска с предупреждающим копированием на spare, ну и «плавающая область» записи с запасными блоками.
Сколько работаю по специфике СХД с различными заказчиками — ни разу не встретился с тем, чтобы SSD диски массово начинали выходить из строя по причине окончания циклов перезаписи.
А еще с другой стороны — может это только я не встречался?=)
Потому что люди привыкли, что их данные хранятся на дисках. Если НЖМД=) совсем уйдут с рынка, то SSD тоже перестанут называть дисками. Просто сейчас переходный период в названиях.
Можно же просто купить дополнительную полку. У вас СХД на поддержке у вендора?
кладутся на эту СХД
К сожалению, несмотря на двухконтроллерность, иногда массивы оказываются недоступны совсем, полностью. И если нет поддержки у вендора — то надолго. В такой ситуации бывает нелишним отресториться куда-нибудь на другой носитель, любой, чтобы восстановить работу критичных сервисов.
Может получится рассказать это начальству и выбить хотя бы ленточку?
Так как жесткие диски у нас 3ТБ (в СХД мало слотов под жесткие диски) мы используем RAID 10
Использовать SATA диски такого объема в RAID 10, конечно, очень плохая идея. SATA (NL-SAS) вообще не для производительности. Но я так понимаю, что на диски SAS 10k не выделяют деньги? Да и массив уже совсем старый, давно End of Sale и, если я не ошибаюсь, совсем скоро END of Support.
И не увидел информации о том, где хранятся бэкапы. Надеюсь, не на этой же СХД?
P.S. вообще опыт очень позитивный для дальнейшего роста, много технологий «потрогано» руками, будет на чем строить дальнейшую экспертизу=)
Мне кажется, выбор языка для обучения важен не для ученика, а для преподавателя. Необходимо, чтобы преподаватель сумел заинтересовать ребенка, дать ему стимул и привить желание учиться. Лучше это делать на знакомом и любимом языке.
Остальное вторично.
Тема новая и интересная, использовать ее не хочется, но иногда надо:))
Честно говоря я не знаю, что там сделали в последних версиях ONTAP на эту тему, но ведь чудес не бывает и разные RAID группы в агрегате обязательно будут приводить к различной производительности «частей» тома. Возможно они научились делать разные по длине страйпы, но производительность все равно будет страдать.
NetApp вообще отличается некоторой сложностью внутренней архитектуры, особенно кластер.
Вообще говоря, такие операции как вывод узла из кластера нужно делать только тогда, когда 100% уверен в своих знаниях по этому вопросу и использовать только официальную документацию. А не так — прочитал хабр и пошел удалять ноды.
SAN LIF'ы не надо мигрировать в принципе. SAN полностью управляется мультипасингом, необходимо его проверить на всех хостах, использующих данный массив в качестве блочного таргета.
Сколько работаю по специфике СХД с различными заказчиками — ни разу не встретился с тем, чтобы SSD диски массово начинали выходить из строя по причине окончания циклов перезаписи.
А еще с другой стороны — может это только я не встречался?=)
Мне кажется, сейчас самое время для хорошей статьи, карму уже хватит сливать.
Можно же просто купить дополнительную полку. У вас СХД на поддержке у вендора?
К сожалению, несмотря на двухконтроллерность, иногда массивы оказываются недоступны совсем, полностью. И если нет поддержки у вендора — то надолго. В такой ситуации бывает нелишним отресториться куда-нибудь на другой носитель, любой, чтобы восстановить работу критичных сервисов.
Может получится рассказать это начальству и выбить хотя бы ленточку?
Использовать SATA диски такого объема в RAID 10, конечно, очень плохая идея. SATA (NL-SAS) вообще не для производительности. Но я так понимаю, что на диски SAS 10k не выделяют деньги? Да и массив уже совсем старый, давно End of Sale и, если я не ошибаюсь, совсем скоро END of Support.
И не увидел информации о том, где хранятся бэкапы. Надеюсь, не на этой же СХД?
P.S. вообще опыт очень позитивный для дальнейшего роста, много технологий «потрогано» руками, будет на чем строить дальнейшую экспертизу=)
Остальное вторично.