Pull to refresh
7
0
Юрий Швыдченко @Shvydchenko

эксперт по непрерывности бизнеса компании КРОК

Send message
Так как сейчас в чистом виде нет CISC и RISC имелись в виду не интел системы преимущественно на процессорах Power, а они ближе к RISC

В данной ситуации нет другого варианта. Всегда есть наследуемые системы и функционал, которые на данный момент не развиваются, но отказаться от которого невозможно
Это разные платформы. Чистый Оракл в Кластере масштабировать большой проблемы не составляет. Но в реальности СУБД Оракл часть ИТ-систем и на уровне приложений возможны вопросы, хотя Оракл и заявляет, что использование RAC прозрачно для приложения. Кроме того RAC не бесплатен и достаточно дорог.
MSA2040 используется для операционной системы. Данные для тестирования находились на Hi-end массиве, подключенному по FC.
А почему использовали E7-2890 v2 и DDR3 вместо E7-8890 v3 и DDR4?
Сомнительная экономия: Жертва 20% производительности ради 2% денег?

В данном случае нельзя судить о такой экономии. Такова конфигурация демо-оборудования, которое можно было заказать осенью 2015г.
По результатам тестирования заказчик, естественно, может заказать E7 v3 и DDR4.

Чем предложенная конфигурация лучше, чем обычные решения 4 * E7 с самым стандатным соединением по Infiniband EDR?

Абсолютно другие задачи. Решения Infiniband EDR предназначены для организации облачной инфраструктуры, повышения его сетевой производительности.
Можно соединить по Infiniband 4 сервера на процессорах E7, установить на каждый ОС и распределить между ними задачи или запустить несколько приложений, но нельзя собрать один большой 120 ядерный сервер для работы с большой БД. По настройке/поддержке сложно сказать что-то, т.к. пока нет опыта по эксплуатации Infiniband EDR от Oracle, система не так давно анонсирована.
Позиция Oracle легко объяснима, Oracle — производитель программных продуктов в первую очередь рекомендует Oracle — производителя оборудования (серверов и СХД).

Что касается поддержки. То, что выпишите, не совсем верно — продукты Oracle официально работают и поддерживаются на множестве платформ (Linuх, AIX и т.д.), и при правильном выборе конфигурации никаких проблем с производительностью у вас не будет, а Oracle будет осуществлять полную техническую поддержку. Все остальное — это стратегия продаж: наше ПО лучше всего работает и поддерживается на нашем оборудовании.

Отказ разбираться с проблемами производительности — это достаточно стандартный случай, если вы используете мультивендорное решение. Производитель ПО будет пенять в сторону производителя железа, и наоборот.

Почему был выбран огород из официально не рекомендованных версий дистрибутивов ОС и железа на которых не гарантируется максимальная производительность?
С чего вы взяли? Полностью сертифицированная и согласованная с HP конфигурация. SDX + ОС RHEL
Выдержка из документации HP:

HPE BL920s Gen8 Server Blades
• Red Hat Enterprise Linux (RHEL)
• SUSE Linux Enterprise Server (SLES)
• Microsoft Windows Server 2012 R2 Standard and Datacenter (including Microsoft
SQL Server 2014)
• VMware vSphere 5.5 U2 and 6.0
NOTE: Please be advised there are currently no WBEM providers for VMware
running on Superdome X meaning IRS cannot report OS message traffic.

Почему не был применён официально рекомендованный Ораклом InfiniBand?
Применен где? Для подключения к SAN? В инфраструктуре заказчика не используется InfiniBand.
Зачем покупать и устанавливать специальные коммутаторы InfiniBand, подключать их к имеющемуся SAN.
Кроме того Oracle рекомендует использовать InfiniBand для определённого класса решений – облачной инфраструктуры.

Зачем был выбран медленный Fiber Channel в свете предыдущего вопроса?
Есть существующая инфраструктура, она реализована на FC. Достаточность скорости FC в реальных задачах — вопрос дискуссионный. Очень редко можно увидеть на 100% загруженный SAN.

В вашей инсталляции Database на голом железе без виртуализации?
Да

Что в вашей схеме делают 1 Гигабитные сетевые подключения? Почему не 10G?
Потому что у заказчика есть реальная сетевая инфраструктура, в которой пока активно не используется 10G. Была задача сравнить две платформы в существующем окружении.
Речь идет нет только о чипсетах, это частный случай. Кроме чипсетов, используется большое количество типовых комплектующих, например процессоры Intel. А в мире HP SDX, как и другие большие сервера, не штучный продукт.
И то и другое покупается за доллары, только разница в цене существенная.
Стоимость лицензирования одинаковая. Коэффициент на ядро для HP SDX – 0,5, для IBM Power – 1. Учитывая двухкратное количество ядер для HP SDX, получается то на то.
В 2011 году скорее всего был HP Superdome на процессорах Itanium, а это другая архитектура и условия. Они закономерно проигрывали IBM + AIX.
Никто и не говорит, что идентичные конфигурации (одинаковое количество памяти и ядер) IBM p-series и HP SDX результаты. Речь идет о соотношении цена/качество, можно добиться сопоставимых и даже лучших результатов за существенно меньшую стоимость.
Смотрели, но под другие задачи. У oracle exadata есть ограничения по возможности работать с продуктами не Oracle.
Риск неисполнения обязательств рассматривается практически всегда вследствие разных причин, в том числе и санкций.
Но если раньше этот риск рассматривался как маловероятный и не всегда были реальные варианты по защите от него, то в последний год он рассматривается как один из основных, особенно в высокотехнологичных компаниях.
Потому что в ЦОДе на ИБП завязаны не только серверы, но инженерная инфраструктура, в частности системы кондиционирования. Основной ИБП отключался частями – батарейными блоками. В серверных стойках использовались локальные бесперебойники для аварийного корректного выключения серверов и СХД. Сначала отключились кондиционеры, подключенные к основному ИБП, потом по thermal shutdown начали выключаться серверы из-за отсутствия охлаждения.
Инженер отключал серверное оборудование.
Вылетел не сам ИБП, состоящий из блоков управления и батарейных модулей, которые и начали вылетать, т.е. не могли держать полную нагрузку.

Information

Rating
Does not participate
Registered
Activity