Pull to refresh

Comments 34

надо бы отметить, что на верхней фотографии — фирменный «дата-центр в контейнере» HP POD, а не разрабатываемый МДЦ. конструкции похожи, но это два разных проекта.
1. Берем много компьютеров.
2. Засовываем много компьютеров в контейнер.
3. ???
4. PROFIT!
Тут на хабре уже есть один такой, он, правда, засовывывает 90 SATA-винтов в выпиленный болгаркой и сваренный у знакомого сварщика ящик. :)
>1,8 м
то есть глубокими серверами его не забьешь. Хотя оно вроде как на блейды рассчитано…
Интересно:
1) на сколько чистой должна быть вода?
2) допустимые нагрузки во время перемещения контейнера.
3) UPS там какие заложены?
Извините, а чем это от сановского решени отличается?
Да, ребят о нем же подумал и насколько я помню у IBM тоже это было. Идеология контейнера.
думаю, большим количеством легкозаменяемых узлов — вынул один, вставил другой.
размером и главное — ЦЕЛЬЮ —

цель модульного датацентра — высокая энергоэффективность
цель HP POD — мобильность
Не ну SGI (бывшей Rackable Systems) заявляет, что они уже делают компактные и энергоэффективные модульные Эко-логические центры обработки данных (Eco-Logical™ Data Center) — например ихний SGI Ice Cube Air.

Чего HP пытается изобрести — велосипед?

А можно надеяться, что хоть блоки питания серверов в этом новом решении HP будут иметь эффективность не ниже 92%?
А то Intel & Google уже давно пытаются продвигать свои инициативы по повышению эффективности блоков питания ПК — но похоже, что воз и ныне там же где и стоял:(
— По этому повожу см. статью: «Благое начинание Google и Intel или как поднять цену на ПК, сделав их энергоэффективными» — 13.06.2007.
Спасибо за информацию.
Я очень рад за HP:)
Почему-то об этих успехах нигде не пишут:(
думаю надо радоваться за клиентов — владельцев этих мега девайсов :)
а так в целом иногда пишут… :)
Да мне вот тоже не совсем ясно а чем хуже Модульные Эко-логические центры обработки данных (Eco-Logical™ Data Center) от компании SGI — бывшей Rackable Systems?
1. SGI ICE Cube,
2. SGI Ice Cube Air.
хорошие решения, но это именно «коробки»… а тут решение органично работающее с серверами т.е. цельное решение
Я не соглашусь, что SGI продают только «коробки».
Если заказчик всё оплачивает, то конечно же эти коробки будут до отказа забиты серверами SGI и причём с уникальной технологией охлаждения, которая на целых 80% по сравнению с традиционными центрами обработки данных сокращает расходы энергии на охлаждение (как пишет SGI)!

Не знаю, может я чего-то не понимаю,
— может быть вы не можете объяснить в чём же уникальность новых мобильных ДЦ от HP,
— может быть не очень хотите признать что конкуренты без траты государственных денег уже давным давно обскакали HP,
но у вас написано, что:
«Ожидается, что эффективная экономия электричества составит 38% на 100 кВт, а индекс эффективности использования энергии – 1,25»

А на сайте SGI, хитро написано по поводу эффективности их системы охлаждения:
«SGI ICE Cube:
Sophisticated cooling technology enables up to 80% reduction in cooling costs vs. traditional data center (PUE < 1.12)»
= www.sgi.com/products/data_center/ice_cube/index.html

и ещё там же:
«SGI ICE Cube Air:
Highly efficient fans, along with an innovative three-stage evaporative cooling system, allow the ICE Cube Air to run with outside air and evaporative cooling in most climates, achieving a Power Usage Effectiveness (PUE) ratio of 1.06 or less...»
= www.sgi.com/products/data_center/ice_cube_air/index.html

Насколько я понял SGI не приводят Power Usage Effectiveness (PUE) всего мобильного ДЦ забитого серверами, но нельзя не признать, что охлаждение их мобильных ДЦ глубоко продумано и возможно HP в чём-то стоит поучится у SGI:)
я наверное не очень понял судя по цифрам следует иное чему у кого учиться :)
Но в статье написано:
"У обычного современного дата-центра этот индекс имеет значение около 2, то есть, на каждый потребленный оборудованием ватт питания, дата-центр потребляет еще один ватт на охлаждение и энергоснабжение."

Так что чем меньше PUE тем лучше!
И у SGI система охлаждения ДЦ имеет меньший PUE, а это значит меньше энергии расходуется на обеспечение охлаждения ДЦ.
(Единственное, что SGI не приводят PUE по потерям (энергозатратам) на энергоснабжение всего ДЦ забитого серверами — и в этом конечно же есть некоторое маркетинговое лукавство SGI).

Но судя по цифрам охлаждение мобильных ДЦ весьма эффективно именно у SGI!
Так что компании HP стоит смирится и купить лицензию на систему охлаждения ДЦ у SGI — и не тратить деньги американских налогоплательщиков:)
есть ощущение попытки пофлеймить :)

HP делает комплексное решение и считать надо операции на ватт. остальное — в целом лукавство… но думаю SGI тут подотстанет «немножко» :)
Бедные сисадмины, которым придется работать в таких контейнерах
Вы что, сисадмин и на работе сидите прямо в серверной?
Я — нет, не сисадмин, но знаю из первых рук про сисадминство в дата-центрах. И, поверьте, они очень много времени проводят с железом
думаю я знаю не меньше а наверняка больше :))) и если у этих сисадминов есть руки и мозги, то они сводят к минимуму своё пребывание в ДЦ.
для этого у ХП есть волшебные слова: iLO и Onboard Administrator :)
Извини, я знаю со слов жены, она у меня сисадмин в крупном американском дата-центре с несколькими тысячами серваков. Установка, переустановка оборудование, замена полетевших дисков, апгрейд памяти и процессоров, и т.д. и т.п. В этих случаях iLO не поможет.
ЗЫ. Как оказалось iLO не очень то и популярно, хотя большинство серваков — GL5/GL6
> В МДЦ устанавливаются четыре, шесть или восемь стандартных 42-юнитовых стоек.

Сами перемножите? Думается, что и я и Brontozaurus в состоянии оценить, как часто придется посещать, при таком количестве оборудования.

Кстати, «установка, переустановка оборудование, замена полетевших дисков, апгрейд памяти и процессоров, и т.д. и т.п.» — мне всегда казалось, что этим не админ занимается, а technician.

Админ этих серверов может вообще в Санкт-Петербурге сидеть, притом что дата-центр будет в Чикаго.
А вот я сисадмин. И в своей серверной за три месяца был два, кажется, раза. Кабель переткнуть.
Sign up to leave a comment.