Обзор коммутаторов с 24 10Gb оптическими портами

    Трафик приложений в сети предприятия постоянно растет, а с развитием виртуализации появляются новые решения и сервисы, для которых рекомендуемые скорости интерфейсов на оборудовании уже составляют 10Гбит/c. Для малого и среднего бизнеса на сегодняшний день выгодно использовать технологию Ethernet — как для подключения пользователей, серверов, телефонии и прочего, так и для подключения систем хранения, т.е. организации SAN. В данной статье представлен обзор коммутаторов с 24 10Gb оптическими портами. Для сравнения мы взяли 5 коммутаторов ведущих производителей:




    1. Для начала оценим затраты на покупку коммутатора с двумя блоками питания, для обеспечения отказоустойчивости:

      Piccy.info - Free Image Hosting


    Для подключения к коммутатору серверов, систем хранения и коммутаторов подсетей пользователей нам понадобятся оптические трансиверы, которые обеспечивают передачу на разные расстояния:

    Piccy.info - Free Image Hosting

    Помимо 24-х портовых устройств, которые мы собираемся задействовать, бывают также и 48-ми портовые модели. Стоимость трансиверов, может привышать стоимость самого устройства в несколько раз.
    Если необходимо подключение на небольшие расстояния до 7 метров, например в пределах серверной комнаты или стойки, можно использовать DAC кабель (direct attach copper cable, так же известен как Twinax). Его стоимость на порядок ниже стоимости трансиверов:

    Piccy.info - Free Image Hosting

    Не стоит забывать о технической поддержке и гарантии:

    Piccy.info - Free Image Hosting

    A. Коммутатор Dell Power Connect 8132F обладает «джентльменским» набором, который позволяет внедрить большинство современных медиа-услуг:

    • поддержка большинства стандартных L2-протоколов и безопасности (spanning-tree, LACP, VRRP, Dynamic ARP Inspection, 802.1x и т. д.)
    • поддержка маршрутизации — 512 IPv4 / 256 IPv6 статических маршрутов
    • поддержка RIP и OSPF
    • поддержка мультикаст-протоколов PIM-SM и PIM-DM
    • поддержка средств QoS и управления


    Одно из многих достоинств коммутатора — возможность увеличения количества портов картами расширения с 24 до 32 портов 10Gbps или добавления карты с 2-мя интерфейсами по 40Gbps QSFP. Можно объединить до 6 коммутаторов в отказоустойчивый стек.
    Отличительной особенностью серии коммутаторов 8100, наряду с поддержкой функционала DCB (data center bridging), является технология для оптимизации iSCSI, которая автоматически определяет и настраивает коммутатор при подключении систем хранения Dell EqualLogic. При покупке коммутатора Dell Power Connect 8132F техническая поддержка на 3 года уже входит в комплект поставки.
    Кроме того существует модель с медными 10GbE портами Dell Power Connect 8132.

    Piccy.info - Free Image Hosting

    B. Коммутатор Cisco Catalyst 4500X традиционно имеет расширенный и гибкий функционал в области работы с QoS, средствами безопасности, мониторинга и управления, виртуализации сети, маршрутизации (в том числе мультикаст траффика) как правило, поддерживаемый исключительно на оборудовании Cisco. Коммутатор можно расширить с 24 до 32 портов 10Gb c помощью интерфейсной карты. Есть возможность объединения до 2 коммутаторов в стек по собственной технологии VSS. Поддерживаются такие протоколы как EIGRP, BGP, PBR, PIM. Решение больше подойдет для организации высокопроизводительного ядра сети с продвинутыми возможностями гибкого управления и мониторинга различного трафика на уровне приложений при поддержании повышенного уровня безопасности и отказоустойчивости. Если у вас какие-то особые функциональные требования, то вероятнее всего, что именно это оборудование справится с вашей задачей.

    Piccy.info - Free Image Hosting

    C. Коммутаторы Juniper часто сравнивают с Cisco. Juniper EX4550 так же имеет расширенный L2-функционал и поддержку протоколов OSPF, BGP, IS-IS, а так же DCB (data center bridging) и многое другое. Отличительной особенностью EX серии является технология стекирования Juniper Virtual Chassis, которая позволяет объединить в одно логическое устройство до 10 коммутаторов с помощью интерфейсных модулей 40Gbps QSFP или специальных модулей 128Gbps — при комбинации этих способов можно увеличить пропускную способность до 320Gbps. Коммутатор подойдет как для дата-центров, так и для создания высокопроизводительного ядра предприятия. Имеются так же модели с медными 10Gbps портами.

    Piccy.info - Free Image Hosting

    D. Коммутаторы HP 5820 располагают расширенным L2-функционалом и поддержкой протоколов OSPF, BGP, IS-IS, а так же DCB (data center bridging) с помощью дополнительных интерфейсных карт. С помощью собственной технологии Intelligent Resilient Framework (IRF) можно построить сетевую фабрику из 9 коммутаторов посредством объединения до 1024 портов 10GbE. Для централизованного управления всей фабрикой (как большим виртуальным коммутатором) HP предлагает графическую утилиту Intelligent Management Center (IMC). Стоит сказать, что в данной серии отсутствует поддержка интерфейсов 40Gbps QSFP.

    Piccy.info - Free Image Hosting

    E. Коммутаторы Huawei S6700 по заявленному функционалу тоже имеет расширенный L2-функционал и поддержку протоколов OSPF, BGP, IS-IS. Используя технологию iStack можно сформировать стек посредством объединения портов 10GbE. Плат расширения для данной серии не предусмотрено.

    Piccy.info - Free Image Hosting

    Нельзя однозначно сказать, что победитель один. Хотя в результате сравнения первое место можно отдать коммутатору Dell Power Connect 8132F за наиболее максимальный функционал, низкую цену, большой набор дополнительных функций, но нельзя забывать, что в конечном итоге все может измениться и идеальным вариантом может любой из выше сравниваемых моделей из-за следующих критериев:

    • Задачи
    • Количество требуемых коммутаторов
    • Необходимая пропускная способность
    • Возможность создания стека
    • Допустимая производительность

    Для подбора сетевого оборудования обратитесь к нашему инженеру Хисматуллину Вадиму. Он подберет наиболее оптимальный вариант оборудования в соответствии с вашими задачами и возможностями.
    ADVANSERV
    33.33
    Company
    Share post
    AdBlock has stolen the banner, but banners are not teeth — they will be back

    More
    Ads

    Comments 31

      +1
      Довольно беглое сравнение. В таком ключе все почти одинаковые. Было бы интереснее более глубокое сравнение характеристик. Кстати, цены брались из стандартного прайса? А то реальная то цена обычно значительно ниже.
        0
        Они действительно одинаковые по сути. Сравнение каких характеристик Вам интересно? Уточните и мы проведем более глубокое сравнение.
        Что касается цен — да, они взяты из стандартных прайс-листов. У всех вендоров свой уровень скидки и более точные цены предоставляются по запросу.
          0
          Если мне что-то будет интересно, я сам это выясню :)
          Ну на вскидку, можно было бы привести для сравнения заявленное MTBF. Есть ли у них BFD еще?
            0
            Dell 8132F не поддерживает BFD по спецификации. У остальных заявлена поддержка BFD, в основном для протоколов динамической маршрутизации, а у Huawei, например, и для VRRP и PIM. Все зависит от конкретной задачи. Не все производители открыто публикуют показатели MTBF, поэтому по этому критерию оценки не было.
              0
              Видите, уже отличия появляются)
              Понятно, что все конкретно под задачи. Если такой фразой отвечать все время, то вместо статьи можно было оставить контакт менеджера.
                0
                Не будем забывать, что это простой обзор все таки:)
                Если все же нужно сравнение под определенные задачи, то можем и его провести.
                В статье присутствует контакт инженера — Хисматуллин Вадим vadim@advanserv.ru.
                Телефон: +7 495-666-56-26
                  0
                  А вы Huawei кому-нибудь продаете? При прочих равных будете советовать?
                    0
                    Huawei имеет достойный функционал за свои деньги.
        0
        1. Как у них с vendor-lock, в частности по трансиверам (по форумам, тот же Juniper даже Twinax свои требует, иначе 10G никак не подымется)?
        2. Как у них с мультикастом и, в частности, с его роутингом? А то вот с Extreme Summit x670 сейчас танцуем — плющит у него PIM. В зависимости от прошивки или регулярно или периодически.
        3. Latency применимо к iSCSI тоже интересно.
          0
          1. Даже в рамках одного вендора существуют таблицы совместимости трансиверов и коммутаторов. Я бы не стал сильно экспериментировать с оборудованием такого класса.
          2. Это только обзор. Тесты и сравнения, в том числе производительности или задержек не проводили. Сами очень надеемся заполучить оборудование в тест.
          3. Extreme Networks не является нашим партнером, но, судя по спецификации, тоже не отстает от конкурентов.
            0
            Насчёт Juniper я удивлён.
            Сам видел статью, где перечислялись вендоры, явно требующие покупать «свои» SFP-модули. И Juniper был назван одним из немногих, кто такое делать не заставлял.
              0
              Вроде как да. Но факт есть факт — сейчас тестируем Juniper QFX3500. Гигабит подымается даже на китайских SFP-шках. 10G — пока никак. Причем ни на SFP-модулях с которыми спокойно работает Extreme, ни на twinax-кабеле, который тоже без проблем работает с другим оборудованием.
              Физический линк по индикации подымается, а физически пакеты не бегают.

              Согласно документации у самого же Джунипера, поддержка third-party кабелей и модулей появилась только в какой-то из относительно последних прошивок. Но работу с ними они не гарантируют и прямо пишут, что претензии по поводу оборудования, которое не их и не подымается даже рассматриваться не будут.

              Сейчас наш сетевой инженер танцует с бубном вокруг QFX, попутно напрягая инженеров поставщика. Но 10G пока поднять не удалось.
              Может еще серия такая. Сама железяка в работе весьма приятная, но вот «10-ку», ради которой она и берется, еще поднять не удалось.
              • UFO just landed and posted this here
                  0
                  Я уже ниже ответил.
                  По факту оказался нюанс работы с новым для нас железом — технари поставщика не уточнили, что для 1G и 10G линков на одном и том же порту нужно настраивать персональные конфиги. В результате 1G был настроен и при работе с гигабитным SFP все работало ок. А вот 10G конфиг настроен не был, в результате при переключении на 10G физика подымалась, а трафик — нет.
              0
              1. Juniper MX и Juniper EX кушают модуля SNR 10G XFP и SFP+
              2. 30 устройств 670 и 460 250 групп в магистрали и 1000 на бордере по MSDP. проблем не наблюдаем… софт 15.3.1
                0
                1. Тестируем QFX3500. Гигабит подымается даже на китайских SFP-шках. 10G — не хочет. Фихический линк показывает, а ни одного пакета не шлет/не принимает. Причем Extreme 670 на тех же SFP+ работает без проблем.
                2. К агрегации и коммутации претензий нет. Ну, почти, так как пару недель назад словили «премилый глюк», когда свич перестал принимать новые MAC-и, работая только с теми, что успел насобирать в таблицу, помог только cold restart. А вот чистый UDP-multicast, которым стримится IPTV, непонятным образом глючит — видео периодически затыкается. Софт 15.3.1.4. У QFX-а, кстати, с этим все замечательно. Вот бы еще 10G на нем завести…
                  0
                  UPD. По QFX. Косяк технарский. Раньше с этими железками не работали, а технари поставщика чего-то не упомянули нюанс, что для 1G и для 10G линков на одном и том же порту нужно настраивать отдельные настройки (они могут быть одинаковыми, но нужна копия настроек для гигабитных и десятигигабитных скоростей раздельно).
              0
              «Шикарное» сравнение, при том что одного из главных игроков на этом рынке (Arista Networks) тут просто нет

              Это при том что у них коммутаторы имеют лейтенси 350нс, wire-rate порты и рвут весх упомянутых здесь вендоров как тузик грелку :D

              www.aristanetworks.com/en/products/7150-series

              Честно? Лучше вообще без обзоров, чем такие.

              Про особенности архитектур (и очень серьезные отличия) — вообще тишина.
                0
                Позиции компании Arista еще не так сильны на Российском рынке, в отличии от конкурентов которые имеют крупные партнерские сети и систему техподдержки в нашей стране. Кроме того ориентировочная цена устройства с 24 10Gb портами составляет около 18000$ + техподдержка на 3 года за 8000$: вывод можете сделать сами.
                  0
                  ориентировочная цена устройства с 24 10Gb портами составляет около 18000$ + техподдержка на 3 года за 8000$: вывод можете сделать сами.

                  По-моему, $18k GPL — прекрасная цена за 24x10G. Поддержка, конечно, чуть дороже типичных «10% от стоимости железки в год», но не так уж и сильно.

                  shapa
                  у них коммутаторы имеют лейтенси 350нс, wire-rate порты и рвут весх упомянутых здесь вендоров как тузик грелку

                  Всех, кроме одного. 190нс. И конечно же эту линейку свитчей в обзоре не упомянули.

                  Впрочем… Вам важны даже не сотни наносекунд, а микросекунды или даже десятки микросекунд? Мне как-то не особо… :)
                    0
                    Про Cisco Nexus — прекрасный пример ;)

                    Лейтенси, которая «бумажная». В реалии — требует отключения (точнее — неиспользования) половины функционала, никаких Jumbo frame, никаких L3 и тд. Короче, как обычно — cisco-style.

                    Накушались мы конкретно с этими нексусами по самые помидоры. Если где-то клиенты жалуются на сеть (мы — это Nutanix), то можно долго не гадать. Cisco Nexus — вероятность 90%.

                    Конкретно сегодня в очередной раз столкнулись…

                    Лейтенси — важна, и еще как. Учитывая что пошел массовый переход на NFS / iSCSI (и то верно, FC SAN как таковой умирает), высокие задержки для работы «СХД» (особенно таких как Nutanix) — чрезвычайно вредны.
                      0
                      Лейтенси, которая «бумажная». В реалии — требует отключения (точнее — неиспользования) половины функционала, никаких Jumbo frame, никаких L3 и тд. Короче, как обычно — cisco-style.

                      Мне казалось, warp mode может L3… Впрочем, если его не включать — нехус все равно бьет аристу где-то на 100нс :)
                      Накушались мы конкретно с этими нексусами по самые помидоры. Если где-то клиенты жалуются на сеть (мы — это Nutanix), то можно долго не гадать. Cisco Nexus — вероятность 90%.

                      Ну-ну. Неужели ни у одного из ваших клиентов нет ASR'а? Или 7200-го к примеру?
                      Лично я на нехусах (правда, только 5к) выловил всего один баг, да и тот скорее косметический (одну команду не может в switch-profile проглотить). А по ASRу еще на этапе лабораторного тестирования с моей подачи завели то ли два, то ли три новых бага. Однако, в продакшне они как-то не глючили… Даже по сравнению с ISR'ами нехусы архистабильны. По крайней мере с последними линейками софта.
                      высокие задержки для работы «СХД» (особенно таких как Nutanix) — чрезвычайно вредны.

                      «Высокие задержки» — это миллисекунды.
                      Средние задержки — десятки микросекунд, примерно любой более-менее современный свитч так может.
                      Низкие задержки — это единицы микросекунд (типично для cut-through свитчей).
                      Сотни наносекунд относятся к «охуительно низким задержкам» и нужны единицам. Назовите типичный latency кеша и дисков/флеша вашего СХД — за сколько времени он добудет данные и начнет вталкивать их в сеть? 100нс — это время, за которое свет в вакууме проходит 30 метров, то есть совсем ничто :)
                      FC SAN как таковой умирает

                      Ну FCoE очень даже набирает популярность. Но я понимаю, почему вы так говорите — ваша контора не занимается FC :)
                        0
                        Насчёт FCoE, кстати, мне представители самой Cisco (и не только) говорили, что это чисто политическая штука, чтобы FC-специалисты это могли админить, доказывали свою незаменимость и не препятствовали продажам.
                        А с технической части нафиг она не нужна.
                          0
                          «Представители самой Cisco» бывают разные. Мнение одного CSE не обязано совпадать с мнением и мотивами руководства. Да и про какие продажи идет речь? Циска не производит массивы. Циска делает (делала?) MDSы, но не думаю, что они генерировали много денег. Циска заинтересована в росте IP трафика (например — добавлением к нему storage трафика), чтобы продавать больше железок с 10G/40G портами. Добавление к трафику FCoE — это большие затраты на R&D, чтобы этот самый FCoE внедрить. В общем, мое мнение: циска могла бы и махнуть рукой на FC рынок, рекламируя iSCSI, NFS и так далее — от этого продажи не слишком пострадали бы. Однако, они говорят "FCoE лучше, чем iSCSI".

                          Неужели FC так уж сложен, что можно вести речь о «незаменимости»? Что-то не припомню такого, нет там никакого rocket science. А если рассматривать конвергенцию — по-хорошему, iSCSI трафик должен быть не менее lossless, чем FC, со всеми вытекающими (небольшими) сложностями.

                          В принципе, FC любят за железобетонную стабильность (драйвера годами пилили) и минимальные оверхеды. Да и я вообще больше сторонник физически независимых SAN и IP инфраструктур, если, конечно, это в бюджет влезает. Проблемы на сети не затронут общение виртуалок с дисками, т.е. не будет массового падежа виртуалок. Проблемы с FC… Всё, чему я был свидетелем, являлось следствием совершения кем-то очень глупых ошибок, нередко — нескольких подряд, в остальном FC сеть крайне стабильна (в основном благодаря тому, что особо не надо трогать, а потому меньше риск накосячить и/или нарваться на баг).
                    0
                    Не надо мне про цены рассказывать, они реально не имеют ничего общего с тем что вы описали (какой смысл GPL указывать?)

                    Про «позиции» — это вообще мягко говоря за уши притянуто. В РФ есть? Есть. Продается? Продается.
                  0
                  Ну разве так делают обзоры?

                  1) Где сравнение задержек? Вообще — кто из них cut-through, кто — store-and-forward?
                  2) Где тестирование на дропы приоритетного класса в условиях соседства с флудом?
                  3) Где, в конце концов, самая вкусняшка — Nexus 3524, который формально тоже 24-портовый?
                  4) Где наименования ASIC'ов, на которых построены свитчи, и процессора, держащего control plane?
                  5)…

                  Ну я так не играю…
                    0
                    Дим, А ты напиши эти данные сам? А мы тебе будем очень благодарны! Всегда интересно на что обращает внимание профессионал при выборе коммутатора.

                    P.S.: Я думаю что ребята, авторы этой статьи — продавцы. У них другие хар-ки оборудования в уме, не те, что ты упомянул.
                      0
                      Профессионал обращает внимание на то, что ему важно. Обычно, когда я выбираю железку, для меня несущественен ответ на пункты 1 и 4 (разве что в последнее время на производительность control plane обращаю больше внимания), так как нет задач, где эти вещи имеют значение. По п.2 я обычно исхожу из того, что дропов приоритетного класса будет ровно ноль, если не превышен CIR — вот только не все производители такое обеспечивают. А когда читаю обзор — мне уже интересны все мелкие детали, которыми различаются свитчи. А в этой статье ну прямо вообще ничего нет. Только функционал control plane плюс особенности реализации стекирования, с практически одинаковым итогом. А, ну да, вскользь DCB упомянут, который относится в том числе и к data plane, и да, циска с хуавеем позорники :) Собственно, на этом интересное заканчивается.

                      (хотя с другой стороны, я могу ткнуть пальцем в небо, сказать, что три из пяти свитчей основаны на идентичных чипах от Broadcom, и вряд ли ошибусь)
                        0
                        Ну а если мы не строим межплатнетный датацентр и нам не нужен Nexus с 190нс? Строим сеть не очень большого предприятия. Чем руководствоваться?:)
                          0
                          It depends. Начиная с банального «почём 10G порт» без малейших требований даже к функционалу control plane (наличие STP подразумевается, остальное несущественно), и как правило заканчивая теми же вопросами к QoS, плюс общая эфемерная «надежность».

                          Межпланетному датацентру тем более плевать на сотни наносекунд :)

                          Ваш обзор можно назвать выжимкой из яндекс-маркета, он, простите, настолько же скучен и неинтересен, как среднестатистическая автомобильная передача с обзорами бюджетных универсалов с точки зрения вместимости, расхода топлива и цены — в сравнении с британским Top Gear, где могут устроить гонку между Bugatti Veyron и реактивным истребителем. В общем, добавьте хардкора.
                    0
                    Неплохое сравнение, но было бы неплохо еще добавить сюда Brocade TurboIron 24X Switch.

                    Only users with full accounts can post comments. Log in, please.