Как стать автором
Обновить

Комментарии 22

И про конкретную реализацию ни слова…
Написали бы про настройку со стороны СХД (массивы, луны, настройку multipath и загрузки из SAN), производительность системы и т.д.
Кстати, а для чего там L3-коммутаторы? Для поставленной задачи L2 хватило бы с головой.
> Написали бы про настройку со стороны СХД (массивы, луны, настройку multipath и загрузки из SAN),

Вообще-то deployment guide это отдельная, и хорошо оплачиваемая задача. И очень большая.
Например Best Practices Guide для VMware это 97-страничный PDF, для Xen Server 5 — 85 страниц, для VMware View 92 страницы.
Вы точно хотите это видеть в блоге на Хабре? ;)

> производительность системы

Производительность на чем? «Производительность» не бывает сама по себе, она бывает только для конкретной задачи.
У каждого эти задачи разные, результаты одного, и на одной задаче, обычно мало применимы к другой задаче и другой системе.

> Кстати, а для чего там L3-коммутаторы? Для поставленной задачи L2 хватило бы с головой.
Мы будем использовать L3-коммутацию и cross-stack Etherchannel для обеспечения отказоустойчивости, для этого нужны именно они.
Вы точно хотите это видеть в блоге на Хабре? ;)

Не обязательно пересказывать весь deployment guide, достаточно в пару абзацев описать как и почему оно так настроено.

Производительность на чем?

На тех задачах, для которых будет использоваться комплекс.
> Не обязательно пересказывать весь deployment guide, достаточно в пару абзацев описать как и почему оно так настроено.

www.netwell.ru/production/techbiblioteka.php

> На тех задачах, для которых будет использоваться комплекс.

> На тех задачах, для которых будет использоваться комплекс.

Производительность равна 505. :)
Хотя бы не 83 :)
А если серьёзно, то я ожидал увидеть что-то вроде Validation Highlights из этой статьи:
www.enterprisestrategygroup.com/2011/04/ibm-system-storage-ds3500-express-mixed-workload-performance-with-application-aware-data-management/
А вы думаете зачем и придумывают бенчмарки, разрабатывают тесты и программы тестирования, подробно оговаривают условия и описывают конфигурации…

Вот затем, чтобы не получать результат
— Петька, приборы?
— Шестьдесят пять!
> достаточно в пару абзацев описать как и почему оно так настроено.

Это сложно сделать еще и потому, что, как я написал выше, система идет под тестовый, экспериментальный, демо и учебный стенд. Ее еще на десять раз переконфигурируют, затем и берется. К тому же на ней еще несколько совсем разных задач сделают, даже пока, строго говоря, не остановились даже на типе гипервизора.

Но могу попробовать ответить на отдельные конкретные вопросы.
Кстати о ценах — серверы, коммутаторы и софт по листпрайсу стоят чуть больше 1М. Получается, что остальные 2М ушли на СХД.

итого, с минимальными побочными расходами, «за цену дисков» вендора расшириться до 36 дисков, то есть на 50%

Красиво написано, вот только «за цену дисков» для радового клиента может стоить ещё около 1М, что составляет 30% от всего бюджета.
> Кстати о ценах — серверы, коммутаторы и софт по листпрайсу стоят чуть больше 1М. Получается, что остальные 2М ушли на СХД.

Не могу сказать. Могу сказать, что покупали мы, конечно, не по листпрайсу, но и не по каким-то нереальным скидкам, поскольку это была довольно обычная компания «с улицы». Так что с этой стороны могу гарантировать, что такая итоговая сумма получится у любого.

> Красиво написано, вот только «за цену дисков» для радового клиента может стоить ещё около 1М, что составляет 30% от всего бюджета.

Нет, это не так. Вообще же цена дисков зависит от «умения договариваться», повторюсь непомнюужевкоторыйраз, что по ценам листпрайса тут не покупают.

Строго же говоря, расширения и не предполагается (на наши задачи должно хватить с большим запасом), но такая возможность есть.
Так что с этой стороны могу гарантировать, что такая итоговая сумма получится у любого.

В том то и дело, что сумма немаленькая, особенно по сравнению с классическими SAN других вендоров.

Вообще же цена дисков зависит от «умения договариваться», повторюсь непомнюужевкоторыйраз, что по ценам листпрайса тут не покупают.

50% от листпрайса рядовому клиенту тоже врядли дадут.
> В том то и дело, что сумма немаленькая, особенно по сравнению с классическими SAN других вендоров.

Она, на сравнимых системах, будет немаленькая в любом случае.

> 50% от листпрайса рядовому клиенту тоже врядли дадут.

55 ;)
Спасибо за развёрнутую статью! Думаю пригодится в будущем году при закупке и внедрении СХД в нашей конторе.
Расшифруйте, пожалуйста, для непосвященных фразу:
> 12 дисков для данной конфигурации явно мало (исходим из количества шпинделей, а не емкости), а 24 — уже, по расчетам, вполне достаточно

В том смысле, что это за рассчёты? Почему с 12 конфигурация получается несбалансированной?
Не то что «несбалансированной»…

Ну вот смотрите. 12 дисков должны быть поделены на две части, так как два контроллера в HA-кластере, каждый из них, должен владеть своим набором дисков, так как они не «шарятся» между контроллерами.

Соответствено в каждой из этих групп по 6 дисков нужно пару дисков отдать под parity (RAID-DP, аналог RAID-6, то есть группа с чередованием и четностью, с двумя дисками четности на RAID-группе).
И один диск на каждой группе должен быть hot spare (диски hotspare также не шарятся).

Остается при 12 дисках всего 3 + 3 диска под данные (по 3 на каждом из контроллеров). Это мало, причем не столько для объема, сколько для производительности, которая сильно зависит от количества дисков в RAID-группе.

Однако если у нас дисков 24, то тогда арифметика другая. Также диски делятся пополам, также один на spare и два на parity на каждой группе, а вот уже все оставшиеся можно целиком использовать под data. Получается 9+9 дисков, то есть эффективной емкости становится уже втрое больше, чем в варианте с 12 дисками. Величина usable от raw уже не 50%, как на 12 дисках, а 75%.

К тому же больше становится и дисковых шпинделей, выше будет и производительность на random IO.
недорогими 4GB DIMM (в сравнении с модулями 8GB, которые бы потребовались для такого объема на других моделях)

Это только для Cisco так, для других вендоров цена одинаковая за 2х4GB и 1х8GB. Цена по лист-прайсу (за память) у Cisco в 2 раза больше, чем у конкурентов.
Т.е. обоснованность покупки с-серии, только если в дальнейшем будет покупаться b-серия. Но насколько я помню из презентаций (могу ошибаться), софт для управления c-серии и b-серии различный.

В данном случае при конфигурировании был заказан так называемый Virtualization Pack*

А разве не достаточно было Server Pack? По тексту, требований поддержки приложений (Oracle и т.п.) нет.

SAN

кстати можно было сделать еще дешевле на Cisco MDS 9124, свич не больше $3000
> Это только для Cisco так, для других вендоров цена одинаковая за 2х4GB и 1х8GB. Цена по лист-прайсу (за память) у Cisco в 2 раза больше, чем у конкурентов.

Нет, это не так, спорить слишком долго, поверьте, я много вариантов просмотрел.

> софт для управления c-серии и b-серии различный.

Тоже не совсем так. Есть внутренний менеджер у Cisco UCS C, который работает как HP iLO, напрмер, но для standalone-серверов. Если сервера C-class включить в инфраструктуру B-class, то они вместо этого управляются Cisco UCS Manager для B-class.

> А разве не достаточно было Server Pack? По тексту, требований поддержки приложений (Oracle и т.п.) нет.

Нужен NFS и VSC/SnapManager for VI (ну или как он там счас называется, VSC Backup and Restore capability plug-in)

> кстати можно было сделать еще дешевле на Cisco MDS 9124, свич не больше $3000

3560 тоже столько же стоит, а MDS не умеет cross-stack etherchannel, если я не ошибаюсь, а это нам важно, у нас будет много etherchannel-транков в отказоустойчивой «двухфабричной» структуре.
Спрошу вещь абсолютно очевидную для Вас, но вот я запутался — а почему сервера Cisco? Из-за некоего софта управления? Или именно из-за поддержки памяти?
А мне казалось, что я написал.
Конкретно C250 ради большого объема памяти, большего, чем позволяют компактные недорогие сервера других производителей.

А конкретно Cisco, оттого, что в будущем в «большом» проекте есть blade-ферма Cisco UCS B-series, в которой есть софт управления Cisco UCS Manager, удобный для наших задач, и который управляет всем парком серверов Cisco, как blade, так и rack.

Ну и цена, безусловно.
Хм… Скажите, а во сколько примерно обошлись эти замечательные сервера от Cisco? Спрашиваю, потому что только что отложил в сторону GPL — не получилось за обозримое время собрать конфигурацию сервера, чтобы сравнить с тем же HP. Я, признаться, эту линейку у них пропустил — просто не смотрел у них в эту сторону.

Софт для управления — безусловно, аргумент.
Я бы не хотел тут вовсе распространяться особенно про Cisco, хотя бы потому, что это блог компании NetApp, а не блог компании Cisco :)

Про цены, увы, кроме вот уже сказанного выше что все уложилось в чуть меньше чем сто тысяч, я сказать не могу. Цены в решении — это продукт личного договора клиента с партнером, я не вправе их раскрывать.

Просто хотел бы отметить, что смотреть GPL не имеет смысла, никто в мире не торгует по GPL, это абстрактные цены, не имеющие, строго говоря, никакого отношения к «уличной», real life цене.

Также хочу отметить, что на Cisco UCS C-class весь этот год шла распродажа, и еще будет идти, как я понимаю, с очень большими скидками на ряд преконфигурированных моделей. И если вы попадаете по своим желаниям в такую преконфигуренную модель, то покупать именно ее по такой промо-программе будет очень выгодно.
Спасибо. Отличная статья. Все доходчиво и понятно, тем более я как раз после SAN IW :)
Зарегистрируйтесь на Хабре, чтобы оставить комментарий