Как стать автором
Обновить
8
0
Дмитрий Яхов @Lestat_UA

Пользователь

Спасибо за комментарий. :)
Тут смысл несколько иной.
Например, возьмем диски 3.5" и 2.5" 1ТБ SATA и 600GB SAS.
Диски 2.5" будут дороже по цене, но менее энергопотребляющими и меньшими по размеру.
Если надо набрать просто дисковое пространство, то выгоднее брать 3.5".
А вот если нужна производительность, то лучше взять как можно больше дисков 2.5" самого малого объема.
У HP функционал KVM-over-IP и Media-over-IP активируется отдельной лицензией «iLo Advanced».
Её стоимость, в зависимости от сервера, варьируется в пределах 300$-600$.
По поводу SuperMicro ничего сказать не могу, работаю только с А-брендами :)
Если так «придираться» ;) то у каждого вендора можно найти что-то, требующее доработки.
А в чем интерфейс убог?
Если я не ошибаюсь, то полноценная спецификация IPMI v2 была представлена только в 2004 году. ;)

В статье я постарался описать основные возможности интерфейса, а не его «мега-фичи».
Хотя даже то, что Cisco предоставляет весь этот фукнционал бесплатно, уже является «мега-фичей».
Во всех серверах Cisco UCS этот функционал предоставляется без каких-либо доплат. То есть бесплатно.
Конечно же Вы правы.
В данной статье подразумевается популяризация и повсеместное внедрение не только зарубежом, но и в СНГ.
Про ASA рассказывает главный pre-Sale Cisco в Украине — Владимир Илибман. Это запись с Cisco Day 2012, где как раз обсуждались новинки.

В части о блейд-системах я рассказываю о концепции блейд-систем в общем.

Маркетинга как в первом так и во втором докладах практически нет.
В принципе, все зависит от настроек.
Если подключать к каждой виртуальной машине свой LUN (раздел на системе хранения данных), то можно выдать чёткую пропускную способность.
А вот если делать общий раздел для гипервизора и на нем создавать файлы виртуальных машин, то выделить какую-то одну виртуальную машину не получится.

Все очень зависит от системы виртуализации и способа подключения.
В принципе, все зависит от настроек.
Если подключать к каждой виртуальной машине свой LUN (раздел на системе хранения данных), то можно выдать чёткую пропускную способность.
А вот если делать общий раздел для гипервизора и на нем создавать файлы виртуальных машин, то выделить какую-то одну виртуальную машину не получится.

Все очень зависит от системы виртуализации и способа подключения.
Strib, спасибо за вопрос.

На сколько я понял, технология, которую Вы привели от HP, работает только на линейке серверов HP Non-stop. Это системы на EPIC-процессорах Intel Itanium, не являющейся x86-архитектурой, и просто не сможет выполнять большинство задач, решаемых Intel Xeon-процессорами. У них другое предназначение и другие сферы применения.

По поводу NEC. Действительно у NEC есть 2 сервера, на устаревших процессорах X5600-серии:
www.nec.com/en/global/prod/express/fault_tolerant/index.html
Технология очень интересная, правда NEC не выкладывает характеристики их производительности на spec.org, что заставляет задуматься о производительности такой системы. К тому же, если бы технология от NEC была бы действительно популярной, то они бы не делали настолько маленький модельный ряд Fault Tolerant серверов.

Я же пытался показать особенности сетевой интеграции блейд-систем от Cisco, ибо она в корни отличается от всех существующих решений. Легкость в масштабируемости, благодаря центральным коммутаторам Fabric Interconnect. Легкость создания и изменения сетевых интерфейсов на Blade-серверах. Такой масштабируемой и гибкой схемы, пока что, нет ни у одного из конкурирующих Blade-решений.

Кстати, в скором времени я планирую выпуск следующей статьи посвященной углубленным аспектам отказоустойчивости Blade-систем от Cisco.
Теперь ясно.

1) Fabric Extender (FEX) просто добавляет порты в Fabric Interconnect(FI)-коммутатор. То есть это карта расширения для FI, которая соединяет его с блейд-серверами. При этом FEX не выполняет никакой коммутации, а просто передает трафик в FI. Всей коммутацией занимается FI.

2) EtherChannel — технология, позволяющая объединить несколько физических линий передачи данных в единую логическую линию. Позволяет увеличить пропускную способность соединения, а так же увеличивает отказоустойчивость. При выходе из строя одного из физических соединений, логическое соединение продолжает работать, просто с уменьшеной скоростью.

3) Mezzanine — общее название карт расширения для блейд-систем. Аналогия в обычных серверах — PCI-карты. Тоесть Mezzanine VIC — это все равно что PCI-адаптер VIC. Его описание можете прочитать в пункте 4 статьи.

4) Ethernet — среда передачи IP-трафика.
FCoE и FC — среды для передачи блочных данных. Применяются подключения систем хранения данных. Имеют значительно уменьшенные задержки в передаче пакетов, по сравнению с Ethernet, а так же характерны безпотерьной передачей данных.

5) Converged-адаптеры — адаптеры, позволяющие работать с унифицированными средами передачи данных. То есть с теми, по которым сразу можно передавать и Ethernet и FC-трафик.
Пояснение основных терминов, которые не были детально описаны в статье:
— в 2007 году это была консолидация данных на СХД:
Переход от хранения данных на каждом сервере отдельно, к хранению данных на общем хранилище.
СХД — система хранения данных

— в 2008-2009 – блейд-системы:
Переход от использования Rack-серверов к использованию Blade-серверов. Тем самым уменьшая занимаемую серверами площадь, потребление электроэнергии и другие полезные стороны использования Blade.

— 2010 год был годом виртуализации:
Взрыв популярности компании VMWare. Массовые внедрения виртуализации серверов и рабочих станций. Появление Hyper-V от Microsoft.

— консолидация сетей передачи данных:
Передача данных Ethernet и Fibre Channel по единому кабелю. Появление FCoE, Converged адаптеров и других компонентов объединения сетей.

Еще одним трендом в 2011 году были облака.
Облачные (рассеяные) вычисления (англ. cloud computing, также используется термин Облачная (рассеянная) обработка данных) — технология обработки данных, в которой компьютерные ресурсы и мощности предоставляются пользователю как Интернет-сервис. Пользователь имеет доступ к собственным данным, но не может управлять и не должен заботиться об инфраструктуре, операционной системе и собственно программном обеспечении, с которым он работает. Термин «Облако» используется как метафора, основанная на изображении Интернета на диаграмме компьютерной сети, или как образ сложной инфраструктуры, за которой скрываются все технические детали. Согласно документу IEEE, опубликованному в 2008 году, «Облачная обработка данных — это парадигма, в рамках которой информация постоянно хранится на серверах в интернет и временно кэшируется на клиентской стороне, например, на персональных компьютерах, игровых приставках, ноутбуках, смартфонах и т. д.».

Если еще что-то непонятно — спрашивайте.
Кстати крышка снимается легко, рельсы ездят исправно, крепятся без отверток :)
Название было выбрано специально, потом что многие мои знакомые не знали о существовании серверов от Cisco.

Писалась статья для тех кто непосредственно занимается обслуживанием серверного парка. Как видите я описал своё видение положительных и отрицательных сторон Cisco UCS.

Статью пишу первый раз. Не судите сильно строго :) Я же для всех старался.
По Blade-серверам у Cisco все очень даже хорошо. Я написал «не полное портфолио» из-за отсутствия предложения по Tower-серверам и сервера с большим количеством LFF-дисков (кстати, по дошедшим до меня слухам, в марте такой сервер появится).

В приведенной Вами статье описывается сервер C250, который обладает рядом уникальных особенностей и в принципе не имеет аналогов. В моей статье я описываю серверы C200 и C210. То есть те, которые имеют определенные аналоги у других вендоров и могут сравниваться в одной «весовой» категории.
На модели сервера R200-BUN-3 можно собрать сервер с дисками дешевле чем за $2,000.
Вы ведь понимаете, что Cisco не продает оборудование по GPL :) А на серверы сейчас у них скидки просто сумасшедшие.

Информация

В рейтинге
Не участвует
Откуда
Киев, Киевская обл., Украина
Дата рождения
Зарегистрирован
Активность