All streams
Search
Write a publication
Pull to refresh
20
0
Алексей Павлов @Effi3

Enterprise Architect

Send message
Совершенно верно, блок №1 записывается на диски A,B,C,D,E,F,G,H (относительное обозначение), блок №2 будет записываться на диски А1,B1,C1,D1,E1,F1,G1,H1 и так далее. При чтении большого числа блоков мы обращаемся сразу к большому числу дисков, т.е. как вы и написали.
Система без единой точки отказа, уровень надежности «шесть девяток».
Вытащим 2 винта — потеряем производительность, равную производительности этих двух жестких дисков, данные сохраняются.
Смысл рейдов как раз, чтобы вытащенные диски не влекли к потере данных.
Небольшое добавление в виде списка литературы:
1. HP P4900 ProductPage h10010.www1.hp.com/wwpc/us/en/sm/WF06b/12169-304616-3930449-3930449-3930449-4118659-5219813-5219814.html?dnr=1
2. Quickspecs: h18000.www1.hp.com/products/quickspecs/13552_div/13552_div.pdf
Ну и важно, что в семействе P4000 вы не встретите ни одной лицензии, кроме VSA — виртуальной машины, которая разворачивается на любом сервере и может работать в связке в «железными» LeftHand.
Отсутствие лицензий — это к тому, что весь описанный функционал уже включен и за него не надо платить, даже показанный в статье Peer Motion.
в отношении лазерных принтеров, или чем там вообще занимается HP

Не пользуйтесь этим сборником FUD-ов ;)
Спасибо за ссылку по тестированию.
Тут нет фанатизма, есть желание разобраться, некоторые нюансы теперь понятны.

То есть я получаюсь привязан к одному решению

Нет, это решение пока поддерживается MS SQL 1012, остальные также будут поддерживаться.
Это вопрос или утверждение?

это утверждение, т.к. есть бывшие заказчики NetApp
и это вопрос, т.к. официальных опровержений нет.
ими нельзя напугать клиента до полусмерти ;)

Ни в коем случае, а как способ докопаться до истины, отбросив маркетинговый мусор — это полезно.
Стоило сказать, что приведенные цены — фиктивные, и не имеют отношения к реальной цене

Не фиктивные, т.к. они могут отражать:
а. стоимость комплектующих для фирмы, которую она платит производителю
б. стоимость относительно других похожих решений.
Могут ли несколько серверов использовать IO Accelerator совместно

Могут, такая функция реализована, например в MS SQL 2012.
в количестве не менее 2-х штук

не менее 2 штук на 2 контроллера, не хотел ввести в заблуждение, что необходимо 2 штуки на каждый контроллер.
И вообще там не must, а may. ;)

Известно поведение системы без резервирования при заполнении дисков более, чем на 30%.
В таком случае вы прискорбно ошибаетесь. Не пользуйтесь этим сборником FUD-ов, больше. Пользуйтесь другим. :)

Конечно есть. :-}

Правильно ли я понимаю, что перечисленные источники информации не находятся в открытом доступе? Если есть ошибка, то можно это указать в доступных официальных документах?
То есть вы согласны, что приводить в вашем комментарии «цены листпрайса» в качестве цены было misleading и некорректно? ;)

Не согласен. Листпрайс — это единственные цены, которые доступны в открытом доступе, цены после скидки, естественно, величина относительная, на нее нельзя опираться.
Мне надо 15 таких плат в каждый сервер?

Все зависит от потребностей, производительности двух IO Accelerator более чем достаточно в абсолютном большинстве случаев.
Э-э… Чоа? Вы с NVRAM не путаете? :)

Нет, я имел в виду Flash Cache Performance Acceleration Module (PAM II), который ставится в количестве не менее 2-х штук (и да, у NetApp ведь 2 филера).
При этом за эти деньги вы получаете ровно 256GB

In block environments (FC or iSCSI) NetApp must reserve 100% or more space to avoid data corruption.
Плюс резервирование половины под второй контроллер. Может быть, есть документ где политика резервирования у NetApp подробно описывается?
40 тысяч она, самая маленькая, на 256GB, стоит в листпрайсе

Бывшему заказчику NetApp эту опцию даже не предлагали — системы сразу были забиты «под завязку».
И насчет листпрайса — да, сейчас ни один вендор не продает (в текущих реалиях) не то что системы хранения — жесткие диски и модули RAM по ценам листпрайса.
К слову, опция IO Accelerator на 365GB, про которую я упомянул и которую можно поставить на блейдсервер в листпрайсе стоит $11k.
К сожалению, у этих дорогих компонентов присутствует двухкратное резервирование — половина емкости идет под свой контроллер, половина под второй, в случае с 2-х контроллерной системой. Если контроллеров 4, то доступна только четверть. Причем, насколько я знаю, такая штука должна стоять на кождом из контроллеров, невзоможно добавить плату за $70k только в один.
С появлением, например, Microsoft SQL 2012 применение «четвертого уровня кэша» в лице IO accelerator'а становится более оправданно на вычисляющих серверах.
Пример реализации использования в качестве системы обработки транзакций IO accelerator в серверах HP ProLiant DL380p: www.fusionio.com/blog/hp-proliant-gen8-servers-and-hp-io-accelerators-a-cost-effective-solution-for-accelerating-sql-server-databases/
На блейдах есть решение, но оно пока для Business Critical Systems на процессорах itanium2, когда создаются виртуальные партиции из нескольких физических машин.
Позднее этот функционал будет реализован и для x86 (2014 год), когда будет анонсирован Superdome2 с блейдами на Intel SandyBridge или на процессорах x86 следующего поколения.
Блейды объединяются через бэкплейн блейд-корзины C7000, дополнительные модули не нужны. Блейд настраивается как Spare через модуль Virtual Connect, который видит все блейды корзины также через этот бэкплейн.
QPI шины в семействе серверов HP актуальны для стоечных высокопроизводительных серверов DL980, когда этими линками связываются процессоры двух материнских плат.
HP Virtual Connect это технология виртуализации блейдов в стойке. Физически — это модули виртуализации, у которых есть свой софт управления (в случае в Virtual Connect FlexFabric это софт Virtual Connect Manager)
Есть несколько ссылок, не обращайте внимание на заголовки, книжки толковые :)
1. HP Virtual connect for dummies. h18004.www1.hp.com/products/blades/virtualconnect/connectfordummies/regForm.html
2. HP Virtual Connect for c-Class BladeSystem Setup and Installation Guide bizsupport1.austin.hp.com/bc/docs/support/SupportManual/c01732252/c01732252.pdf
3. HP Virtual Connect Ethernet Cookbook: Single and Multi Enclosure Domain (Stacked) Scenarios bizsupport2.austin.hp.com/bc/docs/support/SupportManual/c01990371/c01990371.pdf
4. Virtual Connect Home Page h18004.www1.hp.com/products/blades/virtualconnect/index.html
5. Virtual Connect FlexFabric Cookbook bizsupport2.austin.hp.com/bc/docs/support/SupportManual/c02616817/c02616817.pdf
6. HP Virtual Connect with iSCSI Cookbook bizsupport2.austin.hp.com/bc/docs/support/SupportManual/c02533991/c02533991.pdf
7. Converged networks with Fibre Channel over Ethernet and Data Center Bridging bizsupport2.austin.hp.com/bc/docs/support/SupportManual/c02664786/c02664786.pdf
Это основное. Могу прислать больше :).
Видео по настройке HP Virtual Connect я тоже не нашел на youtube, надеюсь, отснятые материалы тоже пригодятся!
HP Virtual Connect работает в дополнении с vCenter.
По кластеру — опирался на общее понимание высокодоступного кластера: Избыточное число узлов, входящих в кластер, гарантирует предоставление сервиса в случае отказа одного или нескольких серверов.
(http://en.wikipedia.org/wiki/Computer_cluster)
В тесте, при использовании Virtual Connect в HA кластере работа приложения не прерывалась (потерян один пинг), это не сказалось на работе тестового приложения.
В данной статье кластер с резервированием active/active не рассматривался, но я поправлю описание, чтобы не вводить в заблуждение, спасибо!
Здесь необходимо уточнить: при использовании Fault Tolerance приложение будет доступно в кластере виртуальных машин при выходе из строя одной машины: download3.vmware.com/vdcos/demos/FT_Demo_800x600.html
На уровне работы с заказчиком, да, мы проводим такие испытания со сборкой нескольких корзин в один домен, показываем как отрабатывают модули при выдергивании одного из корзины, отключении проводов. Но на уровне нашего демо центра одновременно иметь 4 корзины — это сложно, т.к. оборудование часто тредоставляется в бесплатное тестирование заказчикам, а то, которое имеется в офисе — предоставляется в удаленные пользование для испытаний.
Из-за подобных сложностей получилось показать работу на минимальном наборе компонентов.
С VMware — да. И 4 и 5 версия не отличается в настройке для кластера, пробовали и на 4 и на 5.
По функциям Virtual Connect, к сожалению, не получилось все рассказать, только то, что относилось к исследованию. Возможно, удастся показать особенности этих систем в отдельном посте.
Насколько я понял: технология примерна такая же. Единственный нюанс, в C3000 подключение к системе хранения не будет конвергентным, т.е. для трафика Ethernet и FC нужны будут свои коммутаторы. В C7000 Мы можем использовать один тип аггрегаторов для создания виртальных профилей блейд-серверов в совокупности с объединением FC и Ethernet в HP Virtual Connect FlexFabric, что дает безусловный выигрыш в больших виртуальных фермах.
Как оказалось, в случае с новыми процессорами E5-2680 эта функция не работает, поэтому решил разобраться почему.
От HP P2000 позиционируется именно для тех задач, которые указаны выше. Для работы с виртуальной средой и высокой загрузкой уже предлагается mid-range массивы P6000. Позиционирование массивов партнерами HP — да, здесь такие несоответствия встречаются.
Скоро HP будут представлены массивы начального уровня нового поколения, способные покрыть потребности заказчика на начальных этапах и обладающие бОльшей масштабируемостью и производительностью, чем текущее поколение. Концепция пока утрясается, данных пока ну очень немного.
Наверное, стоит и про P2000 написать статью…
Performance tools создан для упрощения работы с массивом, им может управлять и специалист с небольшим опытом работы с P2000. Т.к. массив P2000 не позиционируется как высокопроизводительный, то функция замера производительности, полагаю, будет востребована не так часто, лишь во время тестов или после изменения конфигурации, поэтому ее легко получить через Performance tools. Для работы с MIB браузерами в среде SNMP существуют базы управляющей информации P2000 SNMP MIBs (Management Information Base):
bizsupport1.austin.hp.com/bizsupport/TechSupport/SoftwareDescription.jsp?lang=en&cc=us&prodTypeId=12169&prodSeriesId=4118559&swItem=MTX-603b36f682b34d5987de2d6cc5&prodNameId=4118560&swEnvOID=1060&swLang=13&mode=3
Этот дистрибутив предоставляет MIB браузерам и другим SNMP-программам информацию о массиве P2000.
Для «Storage Array P6300» существует инструмент «Performance Advisor» а для «Storage Array P2000G3» инструмент «Performance Tools», служащие для мониторинга загрузки. Оба инструмента возможно интегрировать с SNMP.

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity