Comments 4
большая печалька бэкграундом висит на фотке… или все это тестовое/лаба?
+1
Согласен. Нет, это не лаба — это ядро сети. С одной стороны вроде как есть весь задел для чистого датацентра (само помещение, каналы для кабелей, патч-панели). С дургой — частые изменения в топологии/устройствах и непонимание со стороны младшего обслуживающего персонала и правилах приличия. Из лично моего опыта в этом датацентре могу сказать, что будет только хуже — с появлением оптики (и стандартных длин кабелей, которые тяжело укоротить) начались проблемы с «соплями» и «кольцами» для компенсации избыточной длины. Я сейчас пробую всю оптику, идущую к стойке навивать на «рога» из стоечных креплений в каналах под потолком, чтобы избежать соплей. Посмотрим как дело пойдет.
Если есть идеи или предложения как организовать правильно оптику, буду признателен за советы.
Если есть идеи или предложения как организовать правильно оптику, буду признателен за советы.
0
Можно и нужно сделать как минимум один odf и ddf. И через них делать соединения из других помещений, зданий и т.п.
Оптику на бобины в стойке сверху (если таковые есть в шкафах), а после на бобины рядом с сервером, к которому она идет.
С медью — только перетягивать по всем правилам.
+купите маленький принтер для печатания бирок и по разработанной системе все кабели перемаркируйте.
Оптику на бобины в стойке сверху (если таковые есть в шкафах), а после на бобины рядом с сервером, к которому она идет.
С медью — только перетягивать по всем правилам.
+купите маленький принтер для печатания бирок и по разработанной системе все кабели перемаркируйте.
+1
Интересная идея с Distribution frame. Не скажу, что я не мыслил в данном направлении, но пока что идея конфликтует с моими ограниченными познаниями в оптике — ведь для нормальной организации DF, оптику нужно резать+полировать/паять/клеить, а это подразумевает наличие специализированного оборудования, коего в датацентре пока не предвидится. Ну и определенный уровень персонала или закупку на стороне, что учитывая специфику компании довольно проблематично.
Бобины сверху стойки — почти что мое решение с рогами, но все равно принимается. Бобины красивее. Бобины рядом с сервером — нереально.
Вот представьте себе hyperconverged сервер (у нас стоят от SuperMicro, но более яркий пример VxRail от Dell EMC) — это 4 картриджа по 2 порта 10Гб/с в каждом, плюс 2 медных гигабитных менеджмент порта. Все это, то есть 8 портов оптики на пространстве 2U. А если таких серверов пяток в стойке — 40 бобин… Где держать это хозяйство? Если унифицировать бобину на несколько серверов, возникнут проблемы с обслуживанием кабелей.
Не подумайте, что я отвергаю идею или пытаюсь оправдаться. Просто иногда реалии слегка сложнее, нежели на рекламной картинке.
Бобины сверху стойки — почти что мое решение с рогами, но все равно принимается. Бобины красивее. Бобины рядом с сервером — нереально.
Вот представьте себе hyperconverged сервер (у нас стоят от SuperMicro, но более яркий пример VxRail от Dell EMC) — это 4 картриджа по 2 порта 10Гб/с в каждом, плюс 2 медных гигабитных менеджмент порта. Все это, то есть 8 портов оптики на пространстве 2U. А если таких серверов пяток в стойке — 40 бобин… Где держать это хозяйство? Если унифицировать бобину на несколько серверов, возникнут проблемы с обслуживанием кабелей.
Не подумайте, что я отвергаю идею или пытаюсь оправдаться. Просто иногда реалии слегка сложнее, нежели на рекламной картинке.
0
Sign up to leave a comment.
Обновление JunOS на коммутаторах EX4500 в VirtualChassis — что может пойти не так? Часть 2