Search
Write a publication
Pull to refresh

Comments 15

Уже интереснее, чем первый выпуск. Что в продолжении будет?
Много всего :) Еще ожидается 3-4 части.
Да вроде бы достаточно стандартные все решения, которым по 20-30 лет. Все они на самом деле безумно неэффективные из-за того, что каждый из серверов в стойке может быть разным, принадлежать разным людям, иметь хорошо работающую или так себе систему охлаждения, но при всем этом закономерно считается, что проблема охлаждения — это проблема датацентра.

В итоге имеем страшно overpriced серверы из-за сложной и громоздкой системы охлаждения с мизерным КПД, плюс имеем довольно дорогие (и тоже, как ни странно, весьма неэффективные) системы кондиционирования в датацентрах.

То, что описывается в статье и видео — это уже такие тростинки, за которые хватаются утопающие в попытке хоть как-то сократить расходы на охлаждение и хоть чуть-чуть увеличить КПД.
И как же эффективно нужно охлаждать сервера?
Я чувствую определенный сарказм в вопросе %) Сейчас буду играть в К.О. и говорить, в определенном смысле, азбучные истины.

Во-первых, определяемся, какую задачу решаем. Если решаем задачу «хостить n чужих стандартных серверов в стандартных стойках» — то задача, к сожалению, решается именно так, как описано в этом топике — неэффективно, дорого, зато стандартно. Если вы в роли хостера начнете предлагать клиентам что-то иное — то вряд ли они воспримут это адекватно.

Если мы решаем не эту задачу, то у нас есть несколько вариантов — как правило это «обеспечить нормальное функционирование какого-то количества аппаратуры», с вариациями «минимизировав занимаемый объем», «минимизировав потребление электроэнергии», «минимизировав шум», «обеспечив возможность доступа к компоненту X за время Y» и т.д. — причем зачастую эти требования взаимоисключающие.

Например, если у нас есть необходимость поставить штук 30-40 серверов и минимизировать затраты на охлаждение — то, как правило, это будет означать некий закрытый шкаф-трубу с продуманным воздухообменом. Материнские платы будут стоять скорее всего вертикально, холодный воздух будет забираться снизу и продуваться вверх. «Штатные» системы охлаждения серверов при этом по сути оказываются не у дел, вся продувка становится интегрированной — обычно заменяется на 2-3 мощных вентилятора. Вместо кучи маленьких 1U вентиляторов с производительностью порядка 100-150 кубометров в час ставятся 2-3 больших на 10000-15000 кубометров. Блоки питания скорее всего тоже модифицируются — либо выносятся из стойки в отдельный шкаф, либо заменяются на один общий блок питания на нужное число киловатт. Огромные датацентровые чилеры на десятки киловатт при этом можно не ставить и заменить их на гораздо более простые, дешевые и экономичные воздушные на единицы киловатт.

Нечто подобное, но в более стандартном исполнении, в принципе, показано в ролике и статье как «серверные шкафы со встроенной вытяжкой и трубой».
Несомненно, для крутых «датацентристов» это все скучно и не ново. Я тоже работал с крупными ДЦ и все это видел, но со стороны, не зная подробностей. Тут же объясняют довольно простым языком хотя бы общие понятия. Это, как минимум, познавательно.
Только преподносится это все почему-то как великое достижение фирмы Intel, хотя, если уж разбираться — в типовых решения по охлаждению в первую очередь заслуга APC, Lieber, Rittal.

Если уж говорить о современных стандартных практиках охлаждения — то стоит почитать хотя бы общие обзоры, начиная с, например www.42u.com/42u-rack-cooling.htm — ознакомиться с базовыми понятиями, терминологией, что такое «in row», «in rack», типизацией чилеров, зонировании охлаждения…

Я не против пиара, но, субъективно, он тут какой-то очень топорный получился.
расскажите подробнее о кондиционерах — производитель, модели, холодопроизводительность в зависимости от размеров ЦОДа и прочего по мелочи =)
Ну и каков дстигнутый у вас PUE (Power Usage Effectiveness — соотношение энернопотребления только IT-оборудования к общему энергопотреблению датацентра)?
И нафига там сверху синяя стрелочка? Почему холодный коридор с горячим соединяется не «сквозь сервера»?
Сквозь, но часть холодного, очевидно, уходит незадействованным. Потому-то некоторые изолируют коридоры прямо до потолка.
А некоторые просто делают маленкие холодные коридорчики с крышами.

Вид изнутри холодного коридора:


Двери в холодный коридор — видно, что это изолированные «комнатки». Между ними — горячие коридоры.



И никаких «уходит незадействованным».
Да, так грамотнее, очевидно. Я тоже немного удивился, что они верх не перекрыли, но зато так тщательно обо всем остальном позаботились.
UFO landed and left these words here
Супер! Простенько, но информативно.
Побольше таких выпусков!!! Спасибо!
Sign up to leave a comment.