Комментарии 60
Серьезные железки.
на каком оборудовании работает гигант facebook или, например, Московский Internet Exchange? Что лежит в основе СКИФ—МГУ «Чебышёв» и какие «железки» в своей сети использует Большой адронный коллайдер
Как же надоели эти «заманухи», ради того чтобы показать рекламный буклет.
Скоро кроме железных гиков в ваши корпоративные блоки никто заходить не будет.
Как же надоели эти «заманухи», ради того чтобы показать рекламный буклет.
Скоро кроме железных гиков в ваши корпоративные блоки никто заходить не будет.
Мы решили сделать такую аннотацию к посту не в целях «заманухи», а дабы было интересно нажать «Читать далее». Информация, представленная в статье, достаточно специфична. И, да, facebook и Чебышёв используют Dell Force 10, и мы этим, в принципе, гордимся.
Тем, что такие компании импользуют ваше железо, безусловно, можно гордиться, тут нет вопросов.
Но когда в аннотации на главной написано одно, а под катом — совсем другое, мне кажется, это дешево и глупо. Извините.
Но когда в аннотации на главной написано одно, а под катом — совсем другое, мне кажется, это дешево и глупо. Извините.
Под катом содержится статья, в которой мы рассказываем «на каком оборудовании работает facebook...» Что не так, извините!?
Где на главной «одно», а под катом «другое»?
Где на главной «одно», а под катом «другое»?
Ну нет так тут то, что статья получилась чисто маркетинговой брошюркой. В которой рассказывается о ваших продуктах. В принципе статья сама по себе хорошая. В ней интересно рассказано о ваших продуктах.
Но про фейсбук и прочие коллайдеры у вас по сути ровно 1 строчка «а еще наше оборудование используют фейсбук и прочие крутые перцы»… а я например открывал статью в надежде прочитать именно про то как они используют ваше оборудование, а не только про факт одной строчкой, что они в принципе его используют…
Но про фейсбук и прочие коллайдеры у вас по сути ровно 1 строчка «а еще наше оборудование используют фейсбук и прочие крутые перцы»… а я например открывал статью в надежде прочитать именно про то как они используют ваше оборудование, а не только про факт одной строчкой, что они в принципе его используют…
Хммм… спасибо за идею. Взяли «на карандаш». Постараемся сделать развернутую статью «на живом» примере.
а вы ожидали увидеть сетевую диаграмму фейсбука?? :)
Dell регулярно публикует case studies вот тут:
www.dell.com/content/topics/global.aspx/casestudies/casestudies?c=us&l=en
конкретно по CERN вот тут есть видео на английском:
www.youtube.com/watch?v=oWht3mDnq5k
Dell регулярно публикует case studies вот тут:
www.dell.com/content/topics/global.aspx/casestudies/casestudies?c=us&l=en
конкретно по CERN вот тут есть видео на английском:
www.youtube.com/watch?v=oWht3mDnq5k
Мне вот тоже показалось, что будут рассмотрены и разжеваны инфраструктуры фейсбука и др, а не расписаны достоинства линейки продуктов, которые там использованы.
>> не в целях «заманухи», а дабы было интересно нажать «Читать далее»
так это ж и есть цель заманухи. Если бы в аннотации вы написали «фейсбук использует наши железки ф10. Хотите узнать что это за железки? читайте дальше» — было бы всё честно. А я тоже зашел почитать, как ваши железки встроенны в фейсбук
так это ж и есть цель заманухи. Если бы в аннотации вы написали «фейсбук использует наши железки ф10. Хотите узнать что это за железки? читайте дальше» — было бы всё честно. А я тоже зашел почитать, как ваши железки встроенны в фейсбук
не все компании готовы разглашать конфединциальную информации
по мере возможности Dell публикует Case Studies вот тут:
www.dell.com/content/topics/global.aspx/casestudies/casestudies?c=us&l=en
конкретно по CERN вот тут есть видео на английском:
www.youtube.com/watch?v=oWht3mDnq5k
по мере возможности Dell публикует Case Studies вот тут:
www.dell.com/content/topics/global.aspx/casestudies/casestudies?c=us&l=en
конкретно по CERN вот тут есть видео на английском:
www.youtube.com/watch?v=oWht3mDnq5k
Про Force10 в MSK-IX дополнительную информацию можно посмотреть на сайте MSK-IX. Топология:
www.msk-ix.ru/download/forum2010/Ilin_PF2010_1.pdf
Выбор и тестирование:
www.msk-ix.ru/download/forum2009/Ilin_PF2009.pdf
В суперкомпьютере СКИФ МГУ «Чебышев» используется Force10 C-серия для вспомогательной сети:
top50.supercomputers.ru/?page=stat&sub=ext&id=355
К сожалению, про фейсбук мы не можем предоставить публичную информацию.
www.msk-ix.ru/download/forum2010/Ilin_PF2010_1.pdf
Выбор и тестирование:
www.msk-ix.ru/download/forum2009/Ilin_PF2009.pdf
В суперкомпьютере СКИФ МГУ «Чебышев» используется Force10 C-серия для вспомогательной сети:
top50.supercomputers.ru/?page=stat&sub=ext&id=355
К сожалению, про фейсбук мы не можем предоставить публичную информацию.
спасибо и на этом :)
Топология:
«Ограниченное количество line-rate 10Gbit/sec стыков на Cisco 6500»
Ну ёп… А что они еще хотели от железки с 80гб/с на слот, да и то в full duplex? Зачем стариков пинать? Сейчас у циски и нексусы есть. Но да, в 2010-м их считай что не было.
В суперкомпьютере СКИФ МГУ «Чебышев» используется Force10 C-серия для вспомогательной сети
«На чем построена вспомогательная сеть СКИФ—МГУ «Чебышёв»» звучит куда менее пафосно, чем «Что лежит в основе СКИФ—МГУ «Чебышёв»», согласен :)
Не понял сути претензии, крайне интересная статья.
Жаль, что только коммутаторы. Маршрутизаторов нет, mpls, vpls нет.
*IX маршрутизация не нужна, у них как раз коммутация, да RS. А вот какому-нибудь ЦОД только коммутаторов мало и иногда дешевле выбить скидку у одного вендора на покупку связки router(s) + firewall(s) + switch(s).
Я так понимаю, что Dell купила Force 10 в том числе ради конкуренции с HP их их ProCurve. Но про это как-то в статье не сказано :)
*IX маршрутизация не нужна, у них как раз коммутация, да RS. А вот какому-нибудь ЦОД только коммутаторов мало и иногда дешевле выбить скидку у одного вендора на покупку связки router(s) + firewall(s) + switch(s).
Я так понимаю, что Dell купила Force 10 в том числе ради конкуренции с HP их их ProCurve. Но про это как-то в статье не сказано :)
Гугл подсказал, что как минимум e-series пару лет назад узнали про существование MPLS. Гугл, а не статья. Ппц.
Надо же, и правда mpls :) Спасибо, не знал. Правда здоровые дуры эти Е. Но хочется-то уже конечно VPLS и вообще маршрутизатор, а не коммутатор :)
Внутри ЦОДа не бывает таких маршрутизаторов, которые не коммутаторы :)
Можно вернуться к старому холивару: «являются ли L3 коммутаторы маршрутизаторами?». Я говорю «да, конечно».
Ну и некоторые L3 коммутаторы прекрасно поддерживают VPLS, даже с IRB.
Можно вернуться к старому холивару: «являются ли L3 коммутаторы маршрутизаторами?». Я говорю «да, конечно».
Ну и некоторые L3 коммутаторы прекрасно поддерживают VPLS, даже с IRB.
Еще как бывают! Juniper MX, например. У нас они не коммутируют на L2 между интерфейсами и сабинтерфейсами.
Cisco Catalyst — да, коммутатор с функциями L3. Это коммутаторы со всеми особенностями коммутаторов.
Juniper MX — маршрутизатор с хаками и костылями, чтобы он мог где-то как-то просвитчевать. Но можно и без этого их использовать спокойно.
Cisco Catalyst — да, коммутатор с функциями L3. Это коммутаторы со всеми особенностями коммутаторов.
Juniper MX — маршрутизатор с хаками и костылями, чтобы он мог где-то как-то просвитчевать. Но можно и без этого их использовать спокойно.
Juniper MX почему-то называют пограничным маршрутизатором, а мы тут вроде как фабрики обсуждаем :)
Я загнул изначально мысль про желание большего функционала и модельности для ЦОД. Не только свитчи, но и хотя бы маршрутизаторы.
Вот про функционал у меня к ним как раз большие вопросы чуть ниже…
Ну и на самом деле VPLS в случае построения ЦОДов применим в одном случае — при L2 DCI. Решение довольно убогое в этом плане, есть куда лучшие варианты. Не знаю как F10 и какие у них есть технологии на этот счет, но нексусы 7k умеют OTV. Цель та же, но через OTV линки не ходит unknown unicast, а броадкасты очень жестко прессуются, ну и для сервера первый хоп всегда будет на той же площадке без всяких костылей, да и обратный трафик по идее должен ходить оптимально. Циска заявляет, что шторм в одном ЦОДе не затронет другой ЦОД…
Имея OTV, я не вижу ни одной причины задействовать VPLS. Протянуть L2 между ЦОДом и несколькими площадками с пользователями? Правильный ответ сетевика на такой запрос — «иди на хер, это технически невыполнимо», и тогда запрашивающий всегда найдет более правильное решение.
Да и вообще, L2 DCI — зло, от которого стоит держаться подальше вне зависимости от поддерживаемых технологий.
Ну и на самом деле VPLS в случае построения ЦОДов применим в одном случае — при L2 DCI. Решение довольно убогое в этом плане, есть куда лучшие варианты. Не знаю как F10 и какие у них есть технологии на этот счет, но нексусы 7k умеют OTV. Цель та же, но через OTV линки не ходит unknown unicast, а броадкасты очень жестко прессуются, ну и для сервера первый хоп всегда будет на той же площадке без всяких костылей, да и обратный трафик по идее должен ходить оптимально. Циска заявляет, что шторм в одном ЦОДе не затронет другой ЦОД…
Имея OTV, я не вижу ни одной причины задействовать VPLS. Протянуть L2 между ЦОДом и несколькими площадками с пользователями? Правильный ответ сетевика на такой запрос — «иди на хер, это технически невыполнимо», и тогда запрашивающий всегда найдет более правильное решение.
Да и вообще, L2 DCI — зло, от которого стоит держаться подальше вне зависимости от поддерживаемых технологий.
E-серия поддерживает MPLS, P функционал. MPLS VPN, VPLS не поддерживается. Поэтому мы и не стали упоминать про MPLS :)
Гигибиты, порты, снова гигабиты… Это не так интересно. Куда интереснее поддерживаемые технологии, а в статье про это лишь пара слов. Например, в спеках вижу «Hardware support for Transparent Interconnection of Lots of Links (TRILL) and Data Center Bridging (DCB)». То есть на данный момент не реализовано программно ни то, ни другое? Ну ребята, это уже даже не смешно, если железки заявлены как ЦОДовые. От DCB очень здорово выигрывают тяжелые потоки, чувствительные к потерям — iSCSI и тому подобное. А без TRILL или чего-либо на его основе уже как-то и неприлично строить ЦОД с крупными L2 сегментами.
«Открытость»? Ну да, в теории здорово, для рекламного лозунга в самый раз. На практике это в сетях не так важно. При крупных инсталляциях не принято плодить зоопарк из вендоров, потому выигрывает тот вендор, у которого решение банально лучшее — даже если полностью проприетарное.
В статье я не увидел, чтобы что-либо поддерживалось этими железками. ECMP? Только на L3, то есть упоминать об этом все равно что говорить «наши железки поддерживают протокол IP» — все поддерживают это. На L2 ECMP у вас нет, а у большинства конкурентов есть. Имеется mLAG — опять же, на два шасси его реализовали все. В стеки умеете складываться? Удивили…
И поправьте меня, если я ошибаюсь, но вроде бы VXLAN и NVGRE не требуют абсолютно никакой поддержки со стороны физического сетевого железа…
Так что просьба в следующий раз поменьше писать про гигабиты и побольше — про технологии. У меня сложилось ощущение, что force10 — безмозглые пакетодробилки — офигительно быстрые, но ничего толком не умеющие.
«Открытость»? Ну да, в теории здорово, для рекламного лозунга в самый раз. На практике это в сетях не так важно. При крупных инсталляциях не принято плодить зоопарк из вендоров, потому выигрывает тот вендор, у которого решение банально лучшее — даже если полностью проприетарное.
В статье я не увидел, чтобы что-либо поддерживалось этими железками. ECMP? Только на L3, то есть упоминать об этом все равно что говорить «наши железки поддерживают протокол IP» — все поддерживают это. На L2 ECMP у вас нет, а у большинства конкурентов есть. Имеется mLAG — опять же, на два шасси его реализовали все. В стеки умеете складываться? Удивили…
И поправьте меня, если я ошибаюсь, но вроде бы VXLAN и NVGRE не требуют абсолютно никакой поддержки со стороны физического сетевого железа…
Так что просьба в следующий раз поменьше писать про гигабиты и побольше — про технологии. У меня сложилось ощущение, что force10 — безмозглые пакетодробилки — офигительно быстрые, но ничего толком не умеющие.
А, нет, ctrl+f подсказал, что DCB есть, при чтении проглядел… Ну что же, уже хорошо.
Вот небольшое сравнение разных фабрик по количеству наиболее важных для крупных ЦОДов фич. © Иван Пепельняк, ipspace.net.
Так все-таки, есть ли у вас DCB (вот прямо сейчас, в текущем софте, а не когда-то в будущем), или нет? Иван вроде как запрашивал напрямую у Dell, информация актуальна на май 2012.
Скрытый текст



Так все-таки, есть ли у вас DCB (вот прямо сейчас, в текущем софте, а не когда-то в будущем), или нет? Иван вроде как запрашивал напрямую у Dell, информация актуальна на май 2012.
Поддержка DCB в софте появится на S4810 в июле. В то же время станет доступным к заказу блейд-коммутатор Dell Force10 MXL, также с поддержкой DCB.
Так какого хрена написано «Реализована встроенная поддержка автоматизации и виртуализации (Open Automation), а также поддержка конвергенции сетей SAN и LAN (DCB, FCoE)»? Там ведь небось и FCoE нету, раз DCB отсутствует. И данная фраза куда больше смахивает на преднамеренный обман потенциальных покупателей, чем «hardware support for», к которому все давно уже привыкли.
Мне как потенциальному покупателю неинтересно, что там выйдет в будущем. Важно, что есть сейчас. А если прямо сейчас нужно строить конвергированные сети, то думаю, никто не станет брать тот же S4810. Кому охота устраивать бетатест в продакшне?
Мне как потенциальному покупателю неинтересно, что там выйдет в будущем. Важно, что есть сейчас. А если прямо сейчас нужно строить конвергированные сети, то думаю, никто не станет брать тот же S4810. Кому охота устраивать бетатест в продакшне?
У нас не было цели перечислить все поддерживаемые технологии и протоколы в рамках данной статьи. Целью статьи было познакомить вас с нашим сетевым портфолио Dell Force10 и сделать его краткий обзор. Мы учтем ваши комментарии и в дальнейшим будем более подробно рассматривать технологии и решения.
Ориентация на открытую архитектуру и поддержку стандартов по нашему мнению очень важна. Такой подход позволяет, к примеру, заказчику выбирать лучшее оборудование для своих задач и участков сети (firewall, ядро, доступ, балансировщики, оптимизаторы трафика). Как раз таки в крупных инсталляциях (например, Web 2.0 заказчики) чаще встречается оборудование нескольких вендоров, чем моновендорный подход.
Pre-standard или собственная реализация TRILL имеется сейчас у Cisco, Brocade и Juniper. На мой взгляд, одной из причин, ограничивающих сейчас широкое распространение TRILL, является отсутсвие у вендоров стандартной реализации.
В подходе Network Virtualization Overlays (NVO), разрабатываемом в рамках VXLAN, NVGRE и STT, есть gateway, который обеспечивает взаимодействие между виртуализированной средой и невиртуализированной. Роль gateway может играть appliance, коммутатор или маршрутизатор. В связи с этим в зависимости от реализации потребуется поддержка этих технологий и на сетевом оборудовании.
Интересно посмотреть, как со стандартизацией NVO изменится картина в будущем. Не будет необходимости «растягивать» VLAN-ы внутри ЦОД и между ЦОД. NVO и надежная, масштабируемая Layer 3 фабрика позволят решить задачи по миграции виртуальных машин и изоляции клиентов (multi-tenancy).
Ориентация на открытую архитектуру и поддержку стандартов по нашему мнению очень важна. Такой подход позволяет, к примеру, заказчику выбирать лучшее оборудование для своих задач и участков сети (firewall, ядро, доступ, балансировщики, оптимизаторы трафика). Как раз таки в крупных инсталляциях (например, Web 2.0 заказчики) чаще встречается оборудование нескольких вендоров, чем моновендорный подход.
Pre-standard или собственная реализация TRILL имеется сейчас у Cisco, Brocade и Juniper. На мой взгляд, одной из причин, ограничивающих сейчас широкое распространение TRILL, является отсутсвие у вендоров стандартной реализации.
В подходе Network Virtualization Overlays (NVO), разрабатываемом в рамках VXLAN, NVGRE и STT, есть gateway, который обеспечивает взаимодействие между виртуализированной средой и невиртуализированной. Роль gateway может играть appliance, коммутатор или маршрутизатор. В связи с этим в зависимости от реализации потребуется поддержка этих технологий и на сетевом оборудовании.
Интересно посмотреть, как со стандартизацией NVO изменится картина в будущем. Не будет необходимости «растягивать» VLAN-ы внутри ЦОД и между ЦОД. NVO и надежная, масштабируемая Layer 3 фабрика позволят решить задачи по миграции виртуальных машин и изоляции клиентов (multi-tenancy).
Обалдеть. Полтора месяца! Я уж успел потерять всякую надежду на ответ :)
Все-таки он был уж очень краткий. Опять же, заявления вроде «у нас фабрика коммутирует 100500 миллионов пакетов в наносекунду!» хороши разве что в качестве маркетингового материала для менеджеров, а не для технарей.
Ничто не мешает ставить полностью проприетарные решения разных вендоров на каждый из названных участков уже 10 лет назад (хотя все-таки ядро и доступ ну крайне редко делят по разным вендорам). Взять циску, которая выпускает по линейке железок под каждую из названных задач. Ведь они (железки) совершенно разные. У них абсолютно разные ОС. Поддерживаются совершенно разные технологии. Как будто делаются они и разными вендорами. Разумеется, в половине случаев Cisco просто купили производителя железки и сменили бренд, практически не внося изменений (см. балансировщики CSS). В итоге вместо ASA запросто можно поставить жуниперовый SRX, а вместо ACE — Big-IP. Смотря что больше подходит под конкретную задачу.
Ну и можно добавить, что фичи вроде TRILL определенно не для нищебродов, а ИМХО только нищеброды будут комбинировать железо разных вендоров под одну и ту же задачу. Недостатков тут полно, главный — сложности с траблшутингом и близкий к 100% шанс получить проблемы при рассмотрении кейса у вендора по причине «вон там у вас чужое железо, мы его не поддерживает, вероятно оно глючит».
Помнится, один архитектор циски пиарил нам vBlock. Основной аргумент: и сеть, и гипервизор, и сторы производятся одним «виртуальным» вендором, и если что-то глючит непонятно где (но вроде как на стыке между зонами ответственности) — футбол по кейсу если и начнется, то незаметно для клиента, и напрямую между сотрудниками поддержки каждой из компаний.
Насколько мне известно, железо у всех троих будет поддерживать и стандартную реализацию. Зато у них есть важное преимущество: функционал поддерживается уже прямо сейчас, на выпускаемом в данный момент железе. И есть много-много великолепных технологий, которые сначала сначала были придуманы и реализованы той же циской, а затем, спустя годы, стали стандартов в идентичном либо чуточку измененном виде. TDP/LDP, HSRP/VRRP, PAGP/LACP, ISL/.1q (ну ладно, тут различия радикальны, но суть не меняется) и так далее. Важно то, что клиенты циски могли задействовать их раньше всех, т.е. вендор ощутил потребность клиента в фиче и запилил ее, наплевав на всех с высокой колокольни => клиенты счастливы. Проходят годы, стандарт крепнет, и циска может отказаться от своей проприетарщины, допилив себе поддержку стандарта.
Вы говорите «отсутсвие у вендоров стандартной реализации» — а отсутствие на вашем железе хоть какой-нибудь поддержки хоть чего-либо похожего на TRILL как-то помогает стандарту скорее развиться? Получается, что с технологической точки зрения вы с такой политикой будете вечно в догоняющих, постоянно упуская рынок…
Cisco недавно объявили о вступлении в гонку SDN, анонсировав ONE. Насколько я понял — 100% проприетарный протокол, но с открытым API (т.е. любой самописный контроллер сможет управлять железками, но никто не может выпускать железки с тем же API — не знаю, как это назвать). Ситуация повторяется. Пока кто-то мучительно согласовывает стандарты Openflow и штампует одну версию протокола за другой (разумеется, железо за этим не поспевает), другие с нуля разрабатывают собственное решение, по назначению такое же, но по реализации совершенно иное. И надо ли говорить, что тем организациям, которые привяжутся к ONE, переметнуться на другого вендора будет в стократ сложнее, чем текущим покупателям циски? Но снова: они будут использовать передовое решение, которое наверняка окажется лучше стандарта как минимум первые несколько лет.
(прошу меня извинить за столь частое употребление названия конкурирующей фирмы, но лучшего противопоставления просто не придумать)
«In the vSphere architecture the encapsulation is performed between the virtual NIC of the guest VM and the logical port on the virtual switch. This makes VXLAN transparent to both the guest VMs and the underlying Layer 3 network. Gateway services between VXLAN and non-VXLAN hosts (e.g. a physical server or the Internet router) are performed by VMware's vShield Edge gateway appliance. The Edge gateway translates VXLAN segment IDs to VLAN IDs, so that non-VXLAN hosts can communicate with VXLAN virtual servers.»
Так все-таки, в нашей вселенной и в наше время заменой заголовков VXLAN/NVGRE на .1q/GRE ведает софтовая приблуда в каждом гипервизоре, или отдельный апплайанс? И снова оказывается, что реальной поддержки на данный момент нет?
На самом деле, хорошая идея для статьи: написать про VXLAN/NVGRE (в привязке к реальному миру). Технологии весьма перспективные, но при этом очень мало кому доводилось с ними сталкиваться. Будет заодно повод попиарить свое железо :)
Об этом действительно стоит мечтать. Но в полной мере оно будет реализовано не сегодня и не завтра.
Целью статьи было познакомить вас с нашим сетевым портфолио Dell Force10 и сделать его краткий обзор.
Все-таки он был уж очень краткий. Опять же, заявления вроде «у нас фабрика коммутирует 100500 миллионов пакетов в наносекунду!» хороши разве что в качестве маркетингового материала для менеджеров, а не для технарей.
Такой подход позволяет, к примеру, заказчику выбирать лучшее оборудование для своих задач и участков сети (firewall, ядро, доступ, балансировщики, оптимизаторы трафика).
Ничто не мешает ставить полностью проприетарные решения разных вендоров на каждый из названных участков уже 10 лет назад (хотя все-таки ядро и доступ ну крайне редко делят по разным вендорам). Взять циску, которая выпускает по линейке железок под каждую из названных задач. Ведь они (железки) совершенно разные. У них абсолютно разные ОС. Поддерживаются совершенно разные технологии. Как будто делаются они и разными вендорами. Разумеется, в половине случаев Cisco просто купили производителя железки и сменили бренд, практически не внося изменений (см. балансировщики CSS). В итоге вместо ASA запросто можно поставить жуниперовый SRX, а вместо ACE — Big-IP. Смотря что больше подходит под конкретную задачу.
Ну и можно добавить, что фичи вроде TRILL определенно не для нищебродов, а ИМХО только нищеброды будут комбинировать железо разных вендоров под одну и ту же задачу. Недостатков тут полно, главный — сложности с траблшутингом и близкий к 100% шанс получить проблемы при рассмотрении кейса у вендора по причине «вон там у вас чужое железо, мы его не поддерживает, вероятно оно глючит».
Помнится, один архитектор циски пиарил нам vBlock. Основной аргумент: и сеть, и гипервизор, и сторы производятся одним «виртуальным» вендором, и если что-то глючит непонятно где (но вроде как на стыке между зонами ответственности) — футбол по кейсу если и начнется, то незаметно для клиента, и напрямую между сотрудниками поддержки каждой из компаний.
Pre-standard или собственная реализация TRILL имеется сейчас у Cisco, Brocade и Juniper. На мой взгляд, одной из причин, ограничивающих сейчас широкое распространение TRILL, является отсутсвие у вендоров стандартной реализации.
Насколько мне известно, железо у всех троих будет поддерживать и стандартную реализацию. Зато у них есть важное преимущество: функционал поддерживается уже прямо сейчас, на выпускаемом в данный момент железе. И есть много-много великолепных технологий, которые сначала сначала были придуманы и реализованы той же циской, а затем, спустя годы, стали стандартов в идентичном либо чуточку измененном виде. TDP/LDP, HSRP/VRRP, PAGP/LACP, ISL/.1q (ну ладно, тут различия радикальны, но суть не меняется) и так далее. Важно то, что клиенты циски могли задействовать их раньше всех, т.е. вендор ощутил потребность клиента в фиче и запилил ее, наплевав на всех с высокой колокольни => клиенты счастливы. Проходят годы, стандарт крепнет, и циска может отказаться от своей проприетарщины, допилив себе поддержку стандарта.
Вы говорите «отсутсвие у вендоров стандартной реализации» — а отсутствие на вашем железе хоть какой-нибудь поддержки хоть чего-либо похожего на TRILL как-то помогает стандарту скорее развиться? Получается, что с технологической точки зрения вы с такой политикой будете вечно в догоняющих, постоянно упуская рынок…
Cisco недавно объявили о вступлении в гонку SDN, анонсировав ONE. Насколько я понял — 100% проприетарный протокол, но с открытым API (т.е. любой самописный контроллер сможет управлять железками, но никто не может выпускать железки с тем же API — не знаю, как это назвать). Ситуация повторяется. Пока кто-то мучительно согласовывает стандарты Openflow и штампует одну версию протокола за другой (разумеется, железо за этим не поспевает), другие с нуля разрабатывают собственное решение, по назначению такое же, но по реализации совершенно иное. И надо ли говорить, что тем организациям, которые привяжутся к ONE, переметнуться на другого вендора будет в стократ сложнее, чем текущим покупателям циски? Но снова: они будут использовать передовое решение, которое наверняка окажется лучше стандарта как минимум первые несколько лет.
(прошу меня извинить за столь частое употребление названия конкурирующей фирмы, но лучшего противопоставления просто не придумать)
Роль gateway может играть appliance, коммутатор или маршрутизатор.
«In the vSphere architecture the encapsulation is performed between the virtual NIC of the guest VM and the logical port on the virtual switch. This makes VXLAN transparent to both the guest VMs and the underlying Layer 3 network. Gateway services between VXLAN and non-VXLAN hosts (e.g. a physical server or the Internet router) are performed by VMware's vShield Edge gateway appliance. The Edge gateway translates VXLAN segment IDs to VLAN IDs, so that non-VXLAN hosts can communicate with VXLAN virtual servers.»
Так все-таки, в нашей вселенной и в наше время заменой заголовков VXLAN/NVGRE на .1q/GRE ведает софтовая приблуда в каждом гипервизоре, или отдельный апплайанс? И снова оказывается, что реальной поддержки на данный момент нет?
На самом деле, хорошая идея для статьи: написать про VXLAN/NVGRE (в привязке к реальному миру). Технологии весьма перспективные, но при этом очень мало кому доводилось с ними сталкиваться. Будет заодно повод попиарить свое железо :)
NVO и надежная, масштабируемая Layer 3 фабрика
Об этом действительно стоит мечтать. Но в полной мере оно будет реализовано не сегодня и не завтра.
Если в разаработке использовано ПО с открытым кодом, то где возврат сообществу своих наработок? Или режим хомячания «СПО взяли, а назад шиш»?
Цена вопроса тактично замалчивается… :)
Ну почему же? Цены вполне демократичны. Ни малейшего сарказма — оно действительно стоит копейки, $31k за 48 10G + 4 40G неблокируемых портов.
configure.us.dell.com/dellstore/config.aspx?oc=mlb14095&model_id=force10-s4810&c=us&l=en&s=biz&cs=555
По поводу гробов, к сожалению, удобной конфигурилки не нашел, а считать по частям лень. Навскидку, в средней набивке около полляма американских единиц за пару. Тоже неплохо.
configure.us.dell.com/dellstore/config.aspx?oc=mlb14095&model_id=force10-s4810&c=us&l=en&s=biz&cs=555
По поводу гробов, к сожалению, удобной конфигурилки не нашел, а считать по частям лень. Навскидку, в средней набивке около полляма американских единиц за пару. Тоже неплохо.
почти млн рублей за 48 портов? Что-то не особо попахивает демократичностью :)
«Авианосец стоит миллиард??? А чо так дорого-то? Я вчера на рынке купил радиоуправляемый кораблик всего за тыщу рублей!»
В случае сетевого оборудования миллион рублей — не деньги вообще. Одна лицензия adventerprisek9 для Cisco Cat6500 стоит почти полмиллиона рублей по GPL. Притом, что можно либо при наличии любого контракта скачать нужный образ прямо с сайта циски (никаких серийников, и никто никогда не проверяет лицензионность образа, включая сотрудников самой циски), либо тупо взять файл с торрентов (см. выше про полный пофигизм). Абсолютно никаких технических проблем в этих случаях не будет даже гипотетически, образы идентичны с точностью до бита, циска даже при отсутствии прав на скачку позволяет сверить хеши, кряки любого рода не нужны. И ничего, покупаем же…
В случае сетевого оборудования миллион рублей — не деньги вообще. Одна лицензия adventerprisek9 для Cisco Cat6500 стоит почти полмиллиона рублей по GPL. Притом, что можно либо при наличии любого контракта скачать нужный образ прямо с сайта циски (никаких серийников, и никто никогда не проверяет лицензионность образа, включая сотрудников самой циски), либо тупо взять файл с торрентов (см. выше про полный пофигизм). Абсолютно никаких технических проблем в этих случаях не будет даже гипотетически, образы идентичны с точностью до бита, циска даже при отсутствии прав на скачку позволяет сверить хеши, кряки любого рода не нужны. И ничего, покупаем же…
Как бы слово «демократичный» намекает на «доступность для народа», чтото мне подсказывает что 10Г совсем еще не для народа с такими то ценами. (у других производителей то не дешевле :) )
Ну так народ — компании, имеющие ЦОДы, в которых данное железо уместно… И для них эта цена вполне доступна.
«Дорого» и «дешево» — понятия крайне относительные. Мне кажется, что 48 10G портов с 40G аплинками за $31k — это прекрасно. Вы, глядя на неуправляемые 100мб/с дэлинки, ужасаетесь тому, что 48 портов могут стоить $31k. См. выше про авианосец и радиоуправляемый кораблик. Они плавают на воде — и больше между ними нет ничего общего :)
«Дорого» и «дешево» — понятия крайне относительные. Мне кажется, что 48 10G портов с 40G аплинками за $31k — это прекрасно. Вы, глядя на неуправляемые 100мб/с дэлинки, ужасаетесь тому, что 48 портов могут стоить $31k. См. выше про авианосец и радиоуправляемый кораблик. Они плавают на воде — и больше между ними нет ничего общего :)
С такой логикой — всё «демократично» :) И гугл себе прикупить по «демократичной» цене, и пару островов в тихом океане :)
Да и кто вас заставляет то на длинках и на 100М сидеть? Гигабит давно шагает по планете :) Другое дело что если начинаешь задумываться о 10G в домашних условиях, только одна сетевуха встанет в 500к$, соответственно чтото интересное и высокопроизводительное выливается уже в копеечку.
Да и кто вас заставляет то на длинках и на 100М сидеть? Гигабит давно шагает по планете :) Другое дело что если начинаешь задумываться о 10G в домашних условиях, только одна сетевуха встанет в 500к$, соответственно чтото интересное и высокопроизводительное выливается уже в копеечку.
500k$ читать без «к» :)
Ну вот скажите к примеру, 2-ядерный смартфон за 15000р. — это демократично? По мне — вполне. Но с точки зрения, наверное, четверти населения страны (если не больше) данная сумма за мобильник является немереной и абсолютно неадекватной. Дорого это для них.
100мб/с — на данный момент стандарт для подключения конечных юзеров к сети, и в обозримом будущем это изменено не будет.
Хочется 10G дома? Ну можно сделать эрзац — несколько плат с несколькими портами 1G на идентичных чипсетах (Marvel или Intel) объединить в бандл и завести на управляемый свитч с гигабитными портами, знающий про port-channel'ы. Тогда можно добиться подключения на скорости в 8G при многопоточной передаче данных. Но зачем? Для копирования по сети файлов на таких скоростях (дома) надобно шустрые SSD, а то и в RAID0.
100мб/с — на данный момент стандарт для подключения конечных юзеров к сети, и в обозримом будущем это изменено не будет.
Хочется 10G дома? Ну можно сделать эрзац — несколько плат с несколькими портами 1G на идентичных чипсетах (Marvel или Intel) объединить в бандл и завести на управляемый свитч с гигабитными портами, знающий про port-channel'ы. Тогда можно добиться подключения на скорости в 8G при многопоточной передаче данных. Но зачем? Для копирования по сети файлов на таких скоростях (дома) надобно шустрые SSD, а то и в RAID0.
Судя по населению как раз смартфоны — демократичны :) как посмотришь что народ юзает, так получается что четвертый айфон у каждого через одного :)
У когото 100мб/c стандарт, а ктото уже на гигабит переходит в домашних подключениях (не считая гепоновских недоделок)
Эрзац не особо получится (хотя двухгигабитный эрзац я дома уже сделал), 10 коннектов должно быть у каждой железки в сетке, получается при 5 нодах нужна 50 портовая хрень. Кто сказал что нужно для «копирования файлов»? Есть задачки где в домашних условиях миникластер перестает масштабироваться изза пропускной способности сети…
У когото 100мб/c стандарт, а ктото уже на гигабит переходит в домашних подключениях (не считая гепоновских недоделок)
Эрзац не особо получится (хотя двухгигабитный эрзац я дома уже сделал), 10 коннектов должно быть у каждой железки в сетке, получается при 5 нодах нужна 50 портовая хрень. Кто сказал что нужно для «копирования файлов»? Есть задачки где в домашних условиях миникластер перестает масштабироваться изза пропускной способности сети…
Ну в замкадье тоже есть жизнь, и там не всегда могут позволить себе и первый айфон :) Да и обычно если народ достает в транспорте айфон, то основная задача — продемонстрировать всем, что у них айфон — владельцы простых мобильников так не делают.
Дома у меня тоже гигабит… А десятка пока еще действительно дороговата для дома. Лет 7 назад мало кто мог позволить себе домой и гигабит…
Домашний миникластер, который уперся в 2гб/с — это пять… Я-то считал себя маньяком по причине наличия дома своего ESX сервера…
Дома у меня тоже гигабит… А десятка пока еще действительно дороговата для дома. Лет 7 назад мало кто мог позволить себе домой и гигабит…
Домашний миникластер, который уперся в 2гб/с — это пять… Я-то считал себя маньяком по причине наличия дома своего ESX сервера…
Я о людях лучшего мнения, считаю что достают сотик по надобности а не похвастаться :)
Как раз гигабит в регионах вводят гораздо быстрее.
уперся он конечно не в пропускную способность, а в задержку, но она как раз зависит от пропускной способнсти :-(
Как раз гигабит в регионах вводят гораздо быстрее.
уперся он конечно не в пропускную способность, а в задержку, но она как раз зависит от пропускной способнсти :-(
Два свитча с одинсковой скоростью интерфейсов могут давать задержку, различающуюся на порядки. В посте упоминался «быстрый» свитч от F10. У циски например под это дело есть линейка Nexus 3k. Именно под минимальную задержку при передаче пакета.
Но да, у 10G время сериализации малость поменьше, чем у гига.
Что до мобильников — я не вижу иных объяснений тому, что человек, слушая музыку, время от времени достает айфон, смотрит на локскрин и убирает его обратно. Это как раз попытка демонстрировать «статусность». И конечно, в большинстве таких случаев айфон куплен в кредит на пару лет…
Но да, у 10G время сериализации малость поменьше, чем у гига.
Что до мобильников — я не вижу иных объяснений тому, что человек, слушая музыку, время от времени достает айфон, смотрит на локскрин и убирает его обратно. Это как раз попытка демонстрировать «статусность». И конечно, в большинстве таких случаев айфон куплен в кредит на пару лет…
У меня например смс беззвучные, соответственно приходиться доставать, зато не шумлю каждые несколько секунд, но не айфон…
на циску посматриваю времени от времени, но пока подозрения что это не настолько поможет как переход на 10G
на циску посматриваю времени от времени, но пока подозрения что это не настолько поможет как переход на 10G
на циску посматриваю времени от времени
Nexus 3048? $12k GPL. «Нецелесообразно» было бы правильным словом, если мы говорим о покупке домой… Но это — один из самых быстрых гигабитных свитчей на рынке.
А если другие циски, то надо выкапывать обзоры.
зачем? :) для дома тогда уж 16портовой хватит, 2.5k$
На каких чипах выполнено ваше топовое предложение? Broadcom Trident 2?
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Адронный коллайдер, десятибалльный ветер и коммутаторы