Как стать автором
Поиск
Написать публикацию
Обновить

Экстремально отказоустойчивые сети для офиса на базе фабрики BGP EVPN VXLAN: решение, которым гордился бы Скайнет

Уровень сложностиСредний
Время на прочтение10 мин
Количество просмотров12K
Всего голосов 23: ↑21 и ↓2+22
Комментарии14

Комментарии 14

Интересно, а почему тогда, с учётом этой отказоустойчивости российский интернет лег намедни? Ведь там еще более крутые решения юзаются?/s

Это вообще не из той области. Интернет лег потому что на входе у провайдеров стоят "рубильники" тспу, которые кое-кто неаккуратно рубанул.

Рубанул, не признался, но проворно исправил )

Ну так может у терминаторов тоже был (будет) свой суверенный коннорнет с рубильниками.

Страшно представить, что такого должны сотворить роботы Скайнета, чтобы пришлось поставить рубильники))

как не признался? признался! на уборщицу свалили же всё.

Гвозди - Микроскоп - Применить

Здрасьте приехали, кластер, стек и VSS это разные понятия, автор смешал в кучу. Все таки, если речь идет про кластер Cisco, это точно не VSS.

Горизонтальная виртуализация для vss иногда описывается, как кластеризация, без намека на Cisco switch clustering для управления в Cisco prime. В случае vss мы все еще объединяем два физ. устройства в одно логическое. Что отсылает нас к стекированию. Не классическому (StackWise, FlexStak), но все же

3 физически разделённые сети...
На одну сеть выходит:
5 корпусов по паре лифов агрегации, т.е. 10 лифов;
2 корпуса по паре бордер-лифов и паре спайнов, т.е. плюс 2 лифа и 2 спайна;
Итого на одну физическую сеть 14 коммутаторов, а так как три сети, то x3, т.е. 42 коммутатора. Богато живёте )

Если рассматривать классическую трехуровневую топологию построения, то коммутаторов будет не сильно меньше - всего лишь меньше на два бордера, т.е. 2хSpine - это 2хCore Switch, а nxLeaf - nxDistribution Switch, и все внешние подключения и FW в "классике" агрегируем на ядре.

я бы нет
поясню
ЦОДовский трафик в основном горизонтальный (восток-запад) и его очень много
Кампусный трафик - вертикальный (север-юг) и ограничен шириной каналов к сервисам (в ЦОДы)

у них принципиально разная архитектура изначально
и то что для цодов хорошо для кампусов просто не нужно
и наоборот в цодовых коммутаторах может не быть необходимым кампусам фич безопасности
dot1x snooping DAI ISG итп не говоря уже про PoE

да, если кампус рядом с цодом, то можно подвязать ядро кампуса в фабрику через пару лифов.
но чтоб не плодить лишних l3vni и политик импорта экспорта, я бы все равно подвязывал кампус через бордер лифы
и тогда мы снова приходим к типовой архитектуре: фабрика отдельно - кампус отдельно

l3 dci не думали предложить заказчику и 48x10 современные железки? вместо построения гиперскейла на офис ради "одинаковой архитектуры для кампуса и цода"

Я правильно понимаю, что между кластером МСЭ и border leafs поднят BGP, от каждой ноды МСЭ по два линка в MLAG пару? И в каком режиме собран кластер МСЭ Active/Active или Active/Standby?

знакомые сокращения - "АРМ", "КСПД"...
Уж не Газпром-Нефть ли заказчик? :)

Зарегистрируйтесь на Хабре, чтобы оставить комментарий