Comments 15
Уже интереснее, чем первый выпуск. Что в продолжении будет?
Много всего :) Еще ожидается 3-4 части.
Да вроде бы достаточно стандартные все решения, которым по 20-30 лет. Все они на самом деле безумно неэффективные из-за того, что каждый из серверов в стойке может быть разным, принадлежать разным людям, иметь хорошо работающую или так себе систему охлаждения, но при всем этом закономерно считается, что проблема охлаждения — это проблема датацентра.
В итоге имеем страшно overpriced серверы из-за сложной и громоздкой системы охлаждения с мизерным КПД, плюс имеем довольно дорогие (и тоже, как ни странно, весьма неэффективные) системы кондиционирования в датацентрах.
То, что описывается в статье и видео — это уже такие тростинки, за которые хватаются утопающие в попытке хоть как-то сократить расходы на охлаждение и хоть чуть-чуть увеличить КПД.
В итоге имеем страшно overpriced серверы из-за сложной и громоздкой системы охлаждения с мизерным КПД, плюс имеем довольно дорогие (и тоже, как ни странно, весьма неэффективные) системы кондиционирования в датацентрах.
То, что описывается в статье и видео — это уже такие тростинки, за которые хватаются утопающие в попытке хоть как-то сократить расходы на охлаждение и хоть чуть-чуть увеличить КПД.
И как же эффективно нужно охлаждать сервера?
Я чувствую определенный сарказм в вопросе %) Сейчас буду играть в К.О. и говорить, в определенном смысле, азбучные истины.
Во-первых, определяемся, какую задачу решаем. Если решаем задачу «хостить n чужих стандартных серверов в стандартных стойках» — то задача, к сожалению, решается именно так, как описано в этом топике — неэффективно, дорого, зато стандартно. Если вы в роли хостера начнете предлагать клиентам что-то иное — то вряд ли они воспримут это адекватно.
Если мы решаем не эту задачу, то у нас есть несколько вариантов — как правило это «обеспечить нормальное функционирование какого-то количества аппаратуры», с вариациями «минимизировав занимаемый объем», «минимизировав потребление электроэнергии», «минимизировав шум», «обеспечив возможность доступа к компоненту X за время Y» и т.д. — причем зачастую эти требования взаимоисключающие.
Например, если у нас есть необходимость поставить штук 30-40 серверов и минимизировать затраты на охлаждение — то, как правило, это будет означать некий закрытый шкаф-трубу с продуманным воздухообменом. Материнские платы будут стоять скорее всего вертикально, холодный воздух будет забираться снизу и продуваться вверх. «Штатные» системы охлаждения серверов при этом по сути оказываются не у дел, вся продувка становится интегрированной — обычно заменяется на 2-3 мощных вентилятора. Вместо кучи маленьких 1U вентиляторов с производительностью порядка 100-150 кубометров в час ставятся 2-3 больших на 10000-15000 кубометров. Блоки питания скорее всего тоже модифицируются — либо выносятся из стойки в отдельный шкаф, либо заменяются на один общий блок питания на нужное число киловатт. Огромные датацентровые чилеры на десятки киловатт при этом можно не ставить и заменить их на гораздо более простые, дешевые и экономичные воздушные на единицы киловатт.
Нечто подобное, но в более стандартном исполнении, в принципе, показано в ролике и статье как «серверные шкафы со встроенной вытяжкой и трубой».
Во-первых, определяемся, какую задачу решаем. Если решаем задачу «хостить n чужих стандартных серверов в стандартных стойках» — то задача, к сожалению, решается именно так, как описано в этом топике — неэффективно, дорого, зато стандартно. Если вы в роли хостера начнете предлагать клиентам что-то иное — то вряд ли они воспримут это адекватно.
Если мы решаем не эту задачу, то у нас есть несколько вариантов — как правило это «обеспечить нормальное функционирование какого-то количества аппаратуры», с вариациями «минимизировав занимаемый объем», «минимизировав потребление электроэнергии», «минимизировав шум», «обеспечив возможность доступа к компоненту X за время Y» и т.д. — причем зачастую эти требования взаимоисключающие.
Например, если у нас есть необходимость поставить штук 30-40 серверов и минимизировать затраты на охлаждение — то, как правило, это будет означать некий закрытый шкаф-трубу с продуманным воздухообменом. Материнские платы будут стоять скорее всего вертикально, холодный воздух будет забираться снизу и продуваться вверх. «Штатные» системы охлаждения серверов при этом по сути оказываются не у дел, вся продувка становится интегрированной — обычно заменяется на 2-3 мощных вентилятора. Вместо кучи маленьких 1U вентиляторов с производительностью порядка 100-150 кубометров в час ставятся 2-3 больших на 10000-15000 кубометров. Блоки питания скорее всего тоже модифицируются — либо выносятся из стойки в отдельный шкаф, либо заменяются на один общий блок питания на нужное число киловатт. Огромные датацентровые чилеры на десятки киловатт при этом можно не ставить и заменить их на гораздо более простые, дешевые и экономичные воздушные на единицы киловатт.
Нечто подобное, но в более стандартном исполнении, в принципе, показано в ролике и статье как «серверные шкафы со встроенной вытяжкой и трубой».
Несомненно, для крутых «датацентристов» это все скучно и не ново. Я тоже работал с крупными ДЦ и все это видел, но со стороны, не зная подробностей. Тут же объясняют довольно простым языком хотя бы общие понятия. Это, как минимум, познавательно.
Только преподносится это все почему-то как великое достижение фирмы Intel, хотя, если уж разбираться — в типовых решения по охлаждению в первую очередь заслуга APC, Lieber, Rittal.
Если уж говорить о современных стандартных практиках охлаждения — то стоит почитать хотя бы общие обзоры, начиная с, например www.42u.com/42u-rack-cooling.htm — ознакомиться с базовыми понятиями, терминологией, что такое «in row», «in rack», типизацией чилеров, зонировании охлаждения…
Я не против пиара, но, субъективно, он тут какой-то очень топорный получился.
Если уж говорить о современных стандартных практиках охлаждения — то стоит почитать хотя бы общие обзоры, начиная с, например www.42u.com/42u-rack-cooling.htm — ознакомиться с базовыми понятиями, терминологией, что такое «in row», «in rack», типизацией чилеров, зонировании охлаждения…
Я не против пиара, но, субъективно, он тут какой-то очень топорный получился.
расскажите подробнее о кондиционерах — производитель, модели, холодопроизводительность в зависимости от размеров ЦОДа и прочего по мелочи =)
Ну и каков дстигнутый у вас PUE (Power Usage Effectiveness — соотношение энернопотребления только IT-оборудования к общему энергопотреблению датацентра)?
И нафига там сверху синяя стрелочка? Почему холодный коридор с горячим соединяется не «сквозь сервера»?
Сквозь, но часть холодного, очевидно, уходит незадействованным. Потому-то некоторые изолируют коридоры прямо до потолка.
А некоторые просто делают маленкие холодные коридорчики с крышами.
Вид изнутри холодного коридора:

Двери в холодный коридор — видно, что это изолированные «комнатки». Между ними — горячие коридоры.

И никаких «уходит незадействованным».
Вид изнутри холодного коридора:

Двери в холодный коридор — видно, что это изолированные «комнатки». Между ними — горячие коридоры.

И никаких «уходит незадействованным».
Супер! Простенько, но информативно.
Побольше таких выпусков!!! Спасибо!
Побольше таких выпусков!!! Спасибо!
Sign up to leave a comment.
Видеоэскурсия в ЦОД: Технология Охлаждения