All streams
Search
Write a publication
Pull to refresh
20
0
Алексей Павлов @Effi3

Enterprise Architect

Send message
Добрый день, на текущей версии firmware этот функционал не поддерживается, но аппаратный стек полностью готов, ожидаем в будущих релизах.
И еще:
it took working «upstream» with Red Hat partners and the Linux community to get the Superdome X to a place where it could scale and perform well. He said HP faced “a lot of interesting challenges over the past couple of years getting it enabled because it’s a really big machine.”
«full use of a big 12-TB machine, [which] is a use case that a lot of people really are interested in with data analytics and such, being able to do that in memory, you can do things in seconds that used to take days.»

For example, DNA analysis that used to take seven or eight days can now be processed in a number of minutes.

www.crn.com/news/data-center/video/300077298/hp-superdome-x-servers-made-possible-by-partner-linux-community.htm
UPD: добавлена ссылка на документ по лучшим практикам оптимизации производительности Superdome X в среде Linux: NUMA, энергопотребление, сеть, I/O.
UPD: добавлена ссылка на документ по лучшим практикам оптимизации производительности Superdome X в среде Linux: NUMA, энергопотребление, сеть, I/O.
Ну да, иногда купленные продукты нужно внедрять в производство (/irony)
По неизвестным мне причинам был утерян лицензионный ключ от Data Protector и найти его не удалось

Можно попробовать восстановить через сервисный центр, для этого нужно найти хотя бы Support Agreement ID и HP Order Number.
А если есть доступ на портал, то ключ сгенерировать можно заново.
Вообще-то, Superdome X — основной вычислительный блок в CS900: www8.hp.com/us/en/products/solutions/product-detail.html?oid=7311041#!tab=features
Как раз о поддержке ядра можно увидеть в этой статье: ядро, использованное в тесте — полностью поддерживаемое и доступно для всех заказчиков:
This new kernel isn’t just a one-off intended to showcase great benchmark numbers. It’s been incorporated as a fully supported component of SLE11 SP3, will be available for all customers, and will receive maintenance updates concurrently with the kernels we already ship. While the new kernel is required to provide these scalability improvements in SLE11 SP3, the changes have already been integrated into the default kernels in the upcoming SLE11 SP4 and SLE12 releases.

Зачем мигрировать с Unix? Этот вопрос должен задать себе сам заказчик. Если поддержка на старую RISC систему будет дороже стоимости миграции и поддержки Linux системы, то экономического смысла оставаться долго на такой RISC системе нет. Другое дело, что вопрос миграции — это не пару дней, но к нему нужно готовиться постепенно. Наши заказчики постепенно переносят среды разработки и тестирования на платформы Superdome X, только после этого вводятся продуктивные системы на x86.
Зачем переходить на коммерческий Linux?
Как минимум потому, что это предсказуемый продукт, за него отвечает конкретный разработчик и весь функционал, реализуемый в этих системах — результат совместной работы нескольких разработчиков (в нашем случае HP + Intel + SUSE/RHEL).
Конечно, нет публичной информации о том сколько строчек кода было написано совместно в коммерческий Linux, но есть такая открытая информация с сайтов SUSE:
HP approached SUSE and we agreed to adapt SUSE Linux Enterprise Server 11 SP3 to meet HP’s accelerated timeline. HP made collaboration easy by being proactive in their analysis, the development process, and the presentation of their results to demonstrate success. We accepted many of the scalability enhancements into our kernel, but the biggest improvements involved modifying core data structures.

www.suse.com/communities/conversations/a-record-breaking-benchmark
Для наших разработчиков код уже лет 5 как открыт :)
www.cnews.ru/news/top/?2010/07/07/399421
Самый беглый поиск дает результаты, что открыты исходные коды к таким продуктам как MS-DOS, Windows CE, .NET, мобильной платформы Windows 10.
Думаю, в серверных платформах к этому тоже скоро придут: xakep.ru/2015/04/06/windows-open-source
А подробнее? Ссылки на что прислать?
Забегался, в прямом смысле этого слова ;)
В следующий раз пишите на почту, так быстрее отвечу)
Да нет же, все открывается. Готов продублировать на почту.
Прошу прощения за задержку с ответом, в силу высокой загруженности на работе.
Да, диски привязаны к узлу, в случае смерти узла — диски становятся недоступны.
Между узлами можно настроить синхронную репликацию на удаленную площадку (или локально на соседний сервер) с несколькими уровнями избыточности: зеркало (узел может выйти из строя, данные сохранятся на трех оставшихся узлах), зеркало +1 (2 узла могут выйти из строя, данные сохраняются на оставшихся двух), зеркало + 2 (3 узла могут выйти из строя, данные сохраняются на оставшемся узле). Уровень избыточности можно задать на каждый том свой, также как и место хранения. Увеличивая уровень избыточности нужно помнить, что будет расти нагрузка на сеть (синтетические цифры есть, на каждый уровень избыточности, но всегда нужно проверять на практике у каждого заказчика).
Требования к синхронной репликации — RTT не более 2 мс
Требований к асинхронной репликации нет.
На бэкплейне физическое разведение отсеков дисков к своим узлам.
Добрый день, планируем поддерживать KVM и Hyper-v, дата релиза будет объявлена позже в этом году.
Обращайтесь, сервер есть в демо-центре, можете попросить через наших торговых представителей его на тестирование, заодно и протестировать на нагрузки по картам 1Gb, либо можем предложить удаленное тестирование в Европе уже собранного сервера под ваши нужды.
Добрый день,
1. Да
2. 4 сервера по 4 узла на локальной площадке + 4 сервера по 4 узла на удаленной площадке, такая конфигурация в системе управления рассматривается как единый кластер.
3. Для гибридной системы SSD + SAS предполагается высокопроизводительное подключение 10Gb SFP+, допустимо использование коммутатора любого производителя. Есть возможность использовать 10Gb RJ45 на этом сервере пока в составе решения под VMware EVO:RAIL.
4. Есть возможность собрать решение «на коленке» отдельно сервер + отдельно VSA и гипервизор с подключением по 1Gb. Технически это будет работать, но такой способ подключения не тестировался на высокие нагрузки. Также прелести быстрого развертывания, как описывается в статье — не будет, и не будет единого номера тех поддержки. Система, описываемая в статье, обслуживается и поддерживается как единый комплекс.
Хранилище в такой системе не локальное, а распределенное между узлами и блоками серверов (вы настраиваете уровень избыточности и отказоустойчивости), т.е. при выходе из строя узла виртуальный стор доступен другим узлам.
Коллеги, добрый день, получил подтверждение от команды тех поддержки, что гарантия остается привязанной к серийнику шасси MSA P2000 G3.
Добрый день, виртуальная машина поднимается на одном из оставшихся трех узлов, либо, если у нас несколько таких серверов — на другом сервере.
Вы сами задаете уровень доступности и параметры репликации.

Information

Rating
Does not participate
Location
Москва, Москва и Московская обл., Россия
Date of birth
Registered
Activity