Комментарии 11
Набросок хороший, но деталей мало.
Мы например используем Cisco FP, честно скажу — сомнительное счастье в купе с VPC+. Много раз приводило к дизастеру.
Начали думать за VXLAN/EVPN, благо железки позволяют.
Мы например используем Cisco FP, честно скажу — сомнительное счастье в купе с VPC+. Много раз приводило к дизастеру.
Начали думать за VXLAN/EVPN, благо железки позволяют.
для этого можно использовать multicast, EVPN, MP-BGP EVPN
Я не до конца понял, почему Вы разделили EVPN и MP-BGP EVPN. Бывает EVPN без BGP?
помолчу про водную вводную
а дальше, если я правильно уловил суть, то поднимается вопрос
чем склеивать CLOS фабрики
согласен что SPBm, FabricPath и Trill все выродились в вендор-лок-ин
но и EVPN не единственная лошадка
Те же VXLAN-ы на L3 фабрике можно было использовать когда EVPN-а еще не было
а отдельные, чисто облачные блоки, можно строить вообще интересным образом
vincent.bernat.im/en/blog/2018-l3-routing-hypervisor
а дальше, если я правильно уловил суть, то поднимается вопрос
чем склеивать CLOS фабрики
согласен что SPBm, FabricPath и Trill все выродились в вендор-лок-ин
но и EVPN не единственная лошадка
Те же VXLAN-ы на L3 фабрике можно было использовать когда EVPN-а еще не было
а отдельные, чисто облачные блоки, можно строить вообще интересным образом
vincent.bernat.im/en/blog/2018-l3-routing-hypervisor
Про DCI — отличный вопрос! Но на него нет единого правильного ответа ни у нас, ни у вендоров. Ответов много и каждый выбирает для себя подходящий. И, к сожалению, тему DCI не раскрыть в одном этом посте. Мы упомянули, что VXLAN можно использовать и без EVPN в IP фабрике на коммутаторах. Но у каждого подхода есть свои плюсы и минусы. Например, поддерживать multicast ради VXLAN, когда есть EVPN c его дополнительными плюшками и оптимизациями, мы не захотели.
Ну вопрос про DCI отличный, вот только я его не задавал
под склейкой CLOS я имел ввиду внутренний протокол фабрики т.е. чем вязать Leaf-ы и Spine-ы :)
Но мне больше интересно что уважаемый архитектор скажет про вариант по ссылке
под склейкой CLOS я имел ввиду внутренний протокол фабрики т.е. чем вязать Leaf-ы и Spine-ы :)
Но мне больше интересно что уважаемый архитектор скажет про вариант по ссылке
Насчёт «Чем вязать лифы»: а каков анемнез? :) Возможно, и вязать не надо: и 2 коммутатора (последние два слова ведут на ссылку http://blog.ipspace.net/2014/10/all-you-need-are-two-top-of-rack.html) хватит для проекта? Решение зависит от множества факторов, мы их упоминали вскользь в статье: можно хоть контроллером и openflow (а-ля Big Switch Fabric) или своей «магией» (а-ля Plexxi). Нет серебряной пули, которая подойдет всем.
Если вопрос в разрезе EVPN, то для «underlay» необходим «IGP». Большинство вендоров сходится, что это *BGP, что считаю логичным, дабы использовать на сети что-то максимально общее — BGP.
Что я думаю по поводу статьи? Думаю, что еще лет 6 назад на ExaBGP делал reduntansy еще без ВМ на bare metal серверах в одной географически (ЦОД-РЦОД) размазанном проекте — можно, работает, удобнее BIRD (IMHO). Кое-кто критикует VXLAN и топит за «MPLS in DC and inter-DC networks». А кто-то делает IPv6 only к хостам и сигнализирует приложениям в битах адресов.
Если вопрос в разрезе EVPN, то для «underlay» необходим «IGP». Большинство вендоров сходится, что это *BGP, что считаю логичным, дабы использовать на сети что-то максимально общее — BGP.
Что я думаю по поводу статьи? Думаю, что еще лет 6 назад на ExaBGP делал reduntansy еще без ВМ на bare metal серверах в одной географически (ЦОД-РЦОД) размазанном проекте — можно, работает, удобнее BIRD (IMHO). Кое-кто критикует VXLAN и топит за «MPLS in DC and inter-DC networks». А кто-то делает IPv6 only к хостам и сигнализирует приложениям в битах адресов.
Да нет анамнеза. Просто я согласен, что здесь в отрасли адовый зоопарк сейчас.
И bigswitch c Plexxi тоже весьма экхотические зверушки в нем
Но Underlay может быть и простой IP фабрикой (протокол не так важен, тут главное ECMP)
или даже L2 как в решении по той ссылке.
А если даете ссылки на blog.ipspace.net
то наверное согласны в чем то с автором блога
И если согласны с ним по позиции L2 Vlan Stretching
то проблемы DCI решаются очень просто
Убрать Vlan Stretching и выбросить из дизайна всех этих чудищ OTV, SPB, MPLS, VXLAN, EVPN итп,
з.ы. лет 6 назад именно Техносерв нам настойчиво впаривал OTV хотя мы с порога дали понять, что L2 между ЦОДами нам неинтересен. Еле отбились :)
И bigswitch c Plexxi тоже весьма экхотические зверушки в нем
Но Underlay может быть и простой IP фабрикой (протокол не так важен, тут главное ECMP)
или даже L2 как в решении по той ссылке.
А если даете ссылки на blog.ipspace.net
то наверное согласны в чем то с автором блога
И если согласны с ним по позиции L2 Vlan Stretching
то проблемы DCI решаются очень просто
Убрать Vlan Stretching и выбросить из дизайна всех этих чудищ OTV, SPB, MPLS, VXLAN, EVPN итп,
з.ы. лет 6 назад именно Техносерв нам настойчиво впаривал OTV хотя мы с порога дали понять, что L2 между ЦОДами нам неинтересен. Еле отбились :)
У Ивана была также отличная мысль, что сложность всегда выдавливается в какой-то уровень. Оставить только IP в нашем случае из-за упомянутых в статье услугах ведет к выдавливанию сложности на другие уровни, и в нашем случае в стороны платформ или клиентов. К сожалению, у нас не только наше полностью контролируемое приложение пользуется сетью, присутствует и т.н. «legacy», которое хочет выдавливать сложность в сторону сети и, например, хочет L2 между PoP. Отсюда нам нужен overlay, и вы правильно отметили, что выбора много на рынке. В случае с EVPN (overlay) используется «простая» IP фабрика с ECMP (underlay).
Я не пресейл и не могу отвечать за весь «Техносерв», тем более, я не работал в нем 6 лет назад, но так же отбивался от OTV в то время.
Я не пресейл и не могу отвечать за весь «Техносерв», тем более, я не работал в нем 6 лет назад, но так же отбивался от OTV в то время.
Сейчас EVPN, VXLAN, ECMP поддерживает любой коммутатор с ICOS.
Получается коммутатор сейчас это Linux сервер с 32 или 48 портами.
Скоро Whitebox коммутаторы будут штамповать все, начиная от ASrock, Gigabyte, ASUS.
Будет как серверами, commodity hardware + VMware, Linux, OpenStack, Docker, etc...
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Я сетевой архитектор, и меня это беспокоит