Comments 34
надо бы отметить, что на верхней фотографии — фирменный «дата-центр в контейнере» HP POD, а не разрабатываемый МДЦ. конструкции похожи, но это два разных проекта.
1. Берем много компьютеров.
2. Засовываем много компьютеров в контейнер.
3. ???
4. PROFIT!
2. Засовываем много компьютеров в контейнер.
3. ???
4. PROFIT!
>1,8 м
то есть глубокими серверами его не забьешь. Хотя оно вроде как на блейды рассчитано…
то есть глубокими серверами его не забьешь. Хотя оно вроде как на блейды рассчитано…
Интересно:
1) на сколько чистой должна быть вода?
2) допустимые нагрузки во время перемещения контейнера.
3) UPS там какие заложены?
1) на сколько чистой должна быть вода?
2) допустимые нагрузки во время перемещения контейнера.
3) UPS там какие заложены?
вода не водопроводная :)
остальное поищу
остальное поищу
по поводу HP POD можно поискать тут h20427.www2.hp.com/campaign/pod/au/en/index.html
Извините, а чем это от сановского решени отличается?
Кстати да, тоже вспомнил. Оказывается не только SUN — royal.pingdom.com/2008/05/09/what-the-inside-of-a-container-data-center-looks-like/
думаю, большим количеством легкозаменяемых узлов — вынул один, вставил другой.
размером и главное — ЦЕЛЬЮ —
цель модульного датацентра — высокая энергоэффективность
цель HP POD — мобильность
цель модульного датацентра — высокая энергоэффективность
цель HP POD — мобильность
Не ну SGI (бывшей Rackable Systems) заявляет, что они уже делают компактные и энергоэффективные модульные Эко-логические центры обработки данных (Eco-Logical™ Data Center) — например ихний SGI Ice Cube Air.
Чего HP пытается изобрести — велосипед?
А можно надеяться, что хоть блоки питания серверов в этом новом решении HP будут иметь эффективность не ниже 92%?
А то Intel & Google уже давно пытаются продвигать свои инициативы по повышению эффективности блоков питания ПК — но похоже, что воз и ныне там же где и стоял:(
— По этому повожу см. статью: «Благое начинание Google и Intel или как поднять цену на ПК, сделав их энергоэффективными» — 13.06.2007.
Чего HP пытается изобрести — велосипед?
А можно надеяться, что хоть блоки питания серверов в этом новом решении HP будут иметь эффективность не ниже 92%?
А то Intel & Google уже давно пытаются продвигать свои инициативы по повышению эффективности блоков питания ПК — но похоже, что воз и ныне там же где и стоял:(
— По этому повожу см. статью: «Благое начинание Google и Intel или как поднять цену на ПК, сделав их энергоэффективными» — 13.06.2007.
Да мне вот тоже не совсем ясно а чем хуже Модульные Эко-логические центры обработки данных (Eco-Logical™ Data Center) от компании SGI — бывшей Rackable Systems?
1. SGI ICE Cube,
2. SGI Ice Cube Air.
1. SGI ICE Cube,
2. SGI Ice Cube Air.
хорошие решения, но это именно «коробки»… а тут решение органично работающее с серверами т.е. цельное решение
Я не соглашусь, что SGI продают только «коробки».
Если заказчик всё оплачивает, то конечно же эти коробки будут до отказа забиты серверами SGI и причём с уникальной технологией охлаждения, которая на целых 80% по сравнению с традиционными центрами обработки данных сокращает расходы энергии на охлаждение (как пишет SGI)!
Не знаю, может я чего-то не понимаю,
— может быть вы не можете объяснить в чём же уникальность новых мобильных ДЦ от HP,
— может быть не очень хотите признать что конкуренты без траты государственных денег уже давным давно обскакали HP,
но у вас написано, что:
«Ожидается, что эффективная экономия электричества составит 38% на 100 кВт, а индекс эффективности использования энергии – 1,25»
А на сайте SGI, хитро написано по поводу эффективности их системы охлаждения:
«SGI ICE Cube:
Sophisticated cooling technology enables up to 80% reduction in cooling costs vs. traditional data center (PUE < 1.12)»
= www.sgi.com/products/data_center/ice_cube/index.html
и ещё там же:
«SGI ICE Cube Air:
Highly efficient fans, along with an innovative three-stage evaporative cooling system, allow the ICE Cube Air to run with outside air and evaporative cooling in most climates, achieving a Power Usage Effectiveness (PUE) ratio of 1.06 or less...»
= www.sgi.com/products/data_center/ice_cube_air/index.html
Насколько я понял SGI не приводят Power Usage Effectiveness (PUE) всего мобильного ДЦ забитого серверами, но нельзя не признать, что охлаждение их мобильных ДЦ глубоко продумано и возможно HP в чём-то стоит поучится у SGI:)
Если заказчик всё оплачивает, то конечно же эти коробки будут до отказа забиты серверами SGI и причём с уникальной технологией охлаждения, которая на целых 80% по сравнению с традиционными центрами обработки данных сокращает расходы энергии на охлаждение (как пишет SGI)!
Не знаю, может я чего-то не понимаю,
— может быть вы не можете объяснить в чём же уникальность новых мобильных ДЦ от HP,
— может быть не очень хотите признать что конкуренты без траты государственных денег уже давным давно обскакали HP,
но у вас написано, что:
«Ожидается, что эффективная экономия электричества составит 38% на 100 кВт, а индекс эффективности использования энергии – 1,25»
А на сайте SGI, хитро написано по поводу эффективности их системы охлаждения:
«SGI ICE Cube:
Sophisticated cooling technology enables up to 80% reduction in cooling costs vs. traditional data center (PUE < 1.12)»
= www.sgi.com/products/data_center/ice_cube/index.html
и ещё там же:
«SGI ICE Cube Air:
Highly efficient fans, along with an innovative three-stage evaporative cooling system, allow the ICE Cube Air to run with outside air and evaporative cooling in most climates, achieving a Power Usage Effectiveness (PUE) ratio of 1.06 or less...»
= www.sgi.com/products/data_center/ice_cube_air/index.html
Насколько я понял SGI не приводят Power Usage Effectiveness (PUE) всего мобильного ДЦ забитого серверами, но нельзя не признать, что охлаждение их мобильных ДЦ глубоко продумано и возможно HP в чём-то стоит поучится у SGI:)
я наверное не очень понял судя по цифрам следует иное чему у кого учиться :)
Но в статье написано:
"У обычного современного дата-центра этот индекс имеет значение около 2, то есть, на каждый потребленный оборудованием ватт питания, дата-центр потребляет еще один ватт на охлаждение и энергоснабжение."
Так что чем меньше PUE тем лучше!
И у SGI система охлаждения ДЦ имеет меньший PUE, а это значит меньше энергии расходуется на обеспечение охлаждения ДЦ.
(Единственное, что SGI не приводят PUE по потерям (энергозатратам) на энергоснабжение всего ДЦ забитого серверами — и в этом конечно же есть некоторое маркетинговое лукавство SGI).
Но судя по цифрам охлаждение мобильных ДЦ весьма эффективно именно у SGI!
Так что компании HP стоит смирится и купить лицензию на систему охлаждения ДЦ у SGI — и не тратить деньги американских налогоплательщиков:)
"У обычного современного дата-центра этот индекс имеет значение около 2, то есть, на каждый потребленный оборудованием ватт питания, дата-центр потребляет еще один ватт на охлаждение и энергоснабжение."
Так что чем меньше PUE тем лучше!
И у SGI система охлаждения ДЦ имеет меньший PUE, а это значит меньше энергии расходуется на обеспечение охлаждения ДЦ.
(Единственное, что SGI не приводят PUE по потерям (энергозатратам) на энергоснабжение всего ДЦ забитого серверами — и в этом конечно же есть некоторое маркетинговое лукавство SGI).
Но судя по цифрам охлаждение мобильных ДЦ весьма эффективно именно у SGI!
Так что компании HP стоит смирится и купить лицензию на систему охлаждения ДЦ у SGI — и не тратить деньги американских налогоплательщиков:)
Круто. Реально круто.
Когда можно будет ознакомится с образцом?
Бедные сисадмины, которым придется работать в таких контейнерах
Вы что, сисадмин и на работе сидите прямо в серверной?
Я — нет, не сисадмин, но знаю из первых рук про сисадминство в дата-центрах. И, поверьте, они очень много времени проводят с железом
думаю я знаю не меньше а наверняка больше :))) и если у этих сисадминов есть руки и мозги, то они сводят к минимуму своё пребывание в ДЦ.
для этого у ХП есть волшебные слова: iLO и Onboard Administrator :)
для этого у ХП есть волшебные слова: iLO и Onboard Administrator :)
Извини, я знаю со слов жены, она у меня сисадмин в крупном американском дата-центре с несколькими тысячами серваков. Установка, переустановка оборудование, замена полетевших дисков, апгрейд памяти и процессоров, и т.д. и т.п. В этих случаях iLO не поможет.
ЗЫ. Как оказалось iLO не очень то и популярно, хотя большинство серваков — GL5/GL6
ЗЫ. Как оказалось iLO не очень то и популярно, хотя большинство серваков — GL5/GL6
> В МДЦ устанавливаются четыре, шесть или восемь стандартных 42-юнитовых стоек.
Сами перемножите? Думается, что и я и Brontozaurus в состоянии оценить, как часто придется посещать, при таком количестве оборудования.
Кстати, «установка, переустановка оборудование, замена полетевших дисков, апгрейд памяти и процессоров, и т.д. и т.п.» — мне всегда казалось, что этим не админ занимается, а technician.
Админ этих серверов может вообще в Санкт-Петербурге сидеть, притом что дата-центр будет в Чикаго.
Сами перемножите? Думается, что и я и Brontozaurus в состоянии оценить, как часто придется посещать, при таком количестве оборудования.
Кстати, «установка, переустановка оборудование, замена полетевших дисков, апгрейд памяти и процессоров, и т.д. и т.п.» — мне всегда казалось, что этим не админ занимается, а technician.
Админ этих серверов может вообще в Санкт-Петербурге сидеть, притом что дата-центр будет в Чикаго.
А вот я сисадмин. И в своей серверной за три месяца был два, кажется, раза. Кабель переткнуть.
А вот такие датацентры делает дочерняя компания Bahnhof AB (текущий хостер Викиликса)
modulardatacenters.net/
modulardatacenters.net/
Sign up to leave a comment.
HP вместе с Eaton разрабатывает модульный дата-центр по заказу министерства энергетики США