Комментарии 24
Если можно, некоторый оффтоп.
«В каждый серверный шкаф установлено по одной 24-портовой патч-панели с органайзерами, от каждого нового шкафа до каждого кроссового шкафа проведено по 24 кабеля F/FTP.»
И хватает этих 24 подключений на шкаф? Например, у каждого сервера минимум 3 сетевых интерфейса (два рабочих+один на управление). Стандартный шкаф — 42 юнита, сервера бывают разные, конечно, но все же маловато на сегодня.
«В каждый серверный шкаф установлено по одной 24-портовой патч-панели с органайзерами, от каждого нового шкафа до каждого кроссового шкафа проведено по 24 кабеля F/FTP.»
И хватает этих 24 подключений на шкаф? Например, у каждого сервера минимум 3 сетевых интерфейса (два рабочих+один на управление). Стандартный шкаф — 42 юнита, сервера бывают разные, конечно, но все же маловато на сегодня.
0
Думаю с учетом того сколько там оптических линий можно вполне поставить ToR коммутатор и ни о чем не беспокоиться.
0
Наверное, там предусмотрено место для второй-третьей патч-панели.
И подрядчик обязуется без даунтайма, смонтировать их.
И подрядчик обязуется без даунтайма, смонтировать их.
0
В основном используется оптика, поэтому не было необходимости использовать большое количество портов RJ-45
0
А можете конкретизировать, как используются эти 24 медных линка на шкаф?
Не троллю, просто действительно интересно.
У нас оптики в серверах практически нет, один сервер — 3 eth, новые сервера (HP G8) уже по 5 портов eth. 24 медных линка это 4 сервера, грубо говоря, если подключать все порты. А обычно все и подключаем.
Опять же, интересно, практика ставить свитчи непосредственно в серверные шкафы имеет смысл или это ересь?
Не троллю, просто действительно интересно.
У нас оптики в серверах практически нет, один сервер — 3 eth, новые сервера (HP G8) уже по 5 портов eth. 24 медных линка это 4 сервера, грубо говоря, если подключать все порты. А обычно все и подключаем.
Опять же, интересно, практика ставить свитчи непосредственно в серверные шкафы имеет смысл или это ересь?
0
Такая практика есть, технология Top-of-rack bradhedlund.com/2009/04/05/top-of-rack-vs-end-of-row-data-center-designs/
0
kvo, извините, пропустили начало вопроса «А можете конкретизировать, как используются эти 24 медных линка на шкаф?»
Отвечаем: Медь положили для того, чтобы была возможность подключать KVM (к примеру), и для устройств, у которых нет оптики – их очень мало, поэтому так мало портов.
Отвечаем: Медь положили для того, чтобы была возможность подключать KVM (к примеру), и для устройств, у которых нет оптики – их очень мало, поэтому так мало портов.
0
Сколько киловатт на шкаф доступно?
0
Обычно в таких статьях куча картинок, с которыми читается намного интереснее…
+6
Да, фотографии были бы не лишними. Когда читаешь о построении или модернизации ЦОД, глаза жаждут красивых шкафов/чилеров/СПТ и прочего. Добавьте, пожалуйста, фото, если есть возможность
0
НЛО прилетело и опубликовало эту надпись здесь
Если не секрет — почему было принято решение делать 2N именно на Symmetra? Не дешевле ли было поставить 2 монолитные Galaxy? Ведь Symmetra — он сам по себе имеет внутри резервирование N+1
0
Symmetra позволяет постепенно наращивать мощность, тем самым позволяя при постепенном вводе мощностей ЦОДа в эксплуатацию обеспечить максимальный КПД, что не может позволить моноблочное решение.
0
Мне почему-то кажется, что если использовать принцип резервирования 4/3 (5/4, и т.д.), то при использовании монолитных ибп можно сэкономить процентов 40 общей стоимости относительно 2N на симметрах. И будет так же наращиваться, шагом по 40 kVA например.
0
А почему MGE системы обеспечения без резервирования?
0
стоЯчный кондиционер в панели управления порадовал))
0
Вообще немного удивляют параметры решения. 24 гигабитных соединения на шкаф, 8 кВт энергии. Современный
1U с двумя процессорами это где-то 330 Вт. Т.е. тут согласование есть — 24 1U в шкаф. Но с 1 сетевым подключением на блок. Для современного виртуализированного ЦОД этой сетевой инфраструктуры будет недостаточно в разы. Обычно стараются использовать все сетевые подключения корпуса (2, 3 иногда даже 4). Может основную сеть в датацентре МФТИ планируют сделать 10Гбит оптикой, а медь это просто управляющая сеть?
Когда там стоял просто счетный кластер (8ая фото сверху — Miricom switch сети малой латентности МФТИ-60),
низкая плотность блоков в шкафах была из-за того, что хотели инфраструктуру купить один раз, а потом, при апгрейде кластера просто купить больше вычислительных узлов. Теперь же решение с низкой плотностью просто размножили.
1U с двумя процессорами это где-то 330 Вт. Т.е. тут согласование есть — 24 1U в шкаф. Но с 1 сетевым подключением на блок. Для современного виртуализированного ЦОД этой сетевой инфраструктуры будет недостаточно в разы. Обычно стараются использовать все сетевые подключения корпуса (2, 3 иногда даже 4). Может основную сеть в датацентре МФТИ планируют сделать 10Гбит оптикой, а медь это просто управляющая сеть?
Когда там стоял просто счетный кластер (8ая фото сверху — Miricom switch сети малой латентности МФТИ-60),
низкая плотность блоков в шкафах была из-за того, что хотели инфраструктуру купить один раз, а потом, при апгрейде кластера просто купить больше вычислительных узлов. Теперь же решение с низкой плотностью просто размножили.
0
А каким образом обеспечивается поддержание влажности?
0
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Как мы построили инженерную инфраструктуру для дата-центра Физтеха