Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
Если вы датацентр строите, а не арендуете, то вам, грубо говоря, пофигу — буден он как футбольное поле или как десять футбольных полей: основные затраты всё равно уйдут на оборудование, систему энергообеспечения и охлаждения, etc.
Если вы увеличите после этого плотность серверов, то вы просто-напросто не сможете их все включить: мощности энергоподстанции не хватит.
Но сейчас у Гугла деньги есть и датацентры он строит сам, потому вся эта история про две материнки в одном одном 1U отсеке наверняка осталась в прошлом.
Это деньги и существенно большие, чем собственно сами сервера.С чего вдруг? У вас бетонные балки стоить как золотые стали или крышу из железа по стоимости бриллиантовой кто-то стоить собрался? Вот система энергоснабжения, кондиционирования и прочего — тут да, есть разница. При слишком большой плотности «железа» всё это становится более сложным.
Можно сразу расчитать датацентр на максимальную плотность и строить его отталкиваясь от этого значения (хотя обычно закладывается больше этого значения в два раза).А нафига? Если вы можете запитать 10'000 серверов — какой резон вам ставить 5000? А если решили запитать 10'000 серверов, то кто вам мешает построить датацентр в который они влезут «без напряга»? Или даже с запасом (вдруг следующие поколения процессоров окажутся более экономичными)… В стоимости датацентра цена стен и аренды земли — не самые важные компоненты. Гугл же не ставит их посреди Москвы...
Потому что стоимость постройки датацентра несопоставима с стоимостью железа, чем больше плотность тем меньше требуется датацентров.Это только в том случае если вы пытаетесь построить датацентр в уже существующем здании. В противном случае ограничением является не ёмкость коробки, а мощность энергоподстанции. И при увеличении плотности выше некоторого предела вы сможете запитать меньше серверов, а не больше!
С чего вдруг? У вас бетонные балки стоить как золотые стали или крышу из железа по стоимости бриллиантовой кто-то стоить собрался? Вот система энергоснабжения, кондиционирования и прочего — тут да, есть разница. При слишком большой плотности «железа» всё это становится более сложным
А нафига? Если вы можете запитать 10'000 серверов — какой резон вам ставить 5000? А если решили запитать 10'000 серверов, то кто вам мешает построить датацентр в который они влезут «без напряга»? Или даже с запасом (вдруг следующие поколения процессоров окажутся более экономичными)… В стоимости датацентра цена стен и аренды земли — не самые важные компоненты. Гугл же не ставит их посреди Москвы…
Это только в том случае если вы пытаетесь построить датацентр в уже существующем здании. В противном случае ограничением является не ёмкость коробки, а мощность энергоподстанции. И при увеличении плотности выше некоторого предела вы сможете запитать меньше серверов, а не больше!
В случае высокой плотности меньше необходимая площадь значит дешевле строительство.Да, но велика ли разница?
Чем больших вы размеров строите датацентр, тем больше вам прийдется прокладывать коммуникаций внутри тем более мощные системы охлаждения надо ставить.А вот это как раз не факт. Разница мизерна и не факт что в большем по размеру датацентре установка нужна более мощная (про разницу в длинах кабелей я и вообще молчу — они всё-таки не так дорого стоят). Всё подводимое в датацентр электричество так или иначе преобразуется в тепло и его нужно удалять — это и определяет мощность вентиляции. Есть, конечно, потери если ваш датацентр уж слишком велик, но для этого он должен быть как ангар — не на 10'000 серверов, а на 100'000. Таких мостров даже Гугл не строит.
Церкуляция то должна весь датацентр охватывать.Гораздо хуже — воздух должен проходить мимо каждого процессора и каждого винчестера. Ставить их слишком плотно — не слишком выгодно: придётся ставить специальные мощные вентиляторы, продувающие эту слишком плотную конструкцию — а это деньги и, что гораздо хуже, лишние затраты энергии.
Вы забываете, что датацентр это не только бетонные балки это еще коммуникации, системы охлаждения и т.п.Это вы забываете что датацентр — это всё-таки конструкция, призванная подвести энергию к процессорам и винчестерам и отвести от них тепло (всё остальное — вторично). Оптимальной это конструкция будет вовсе не тогда, когда вы напихаете много-много винчестеров в 1U корпус и поставите туда кучу ревущих вентиляторов. Есть разумный компромисс между плотностью «набивки» и сложностью охлаждения этой набивки. Игрушка показанная на фотке от этого компромисса так же далека как обычный MidiTower с одним винчестером и одним процессором…
Да, но велика ли разница?
А вот это как раз не факт. Разница мизерна и не факт что в большем по размеру датацентре установка нужна более мощная (про разницу в длинах кабелей я и вообще молчу — они всё-таки не так дорого стоят).
Всё подводимое в датацентр электричество так или иначе преобразуется в тепло и его нужно удалять — это и определяет мощность вентиляции. Есть, конечно, потери если ваш датацентр уж слишком велик, но для этого он должен быть как ангар — не на 10'000 серверов, а на 100'000. Таких мостров даже Гугл не строит.
Гораздо хуже — воздух должен проходить мимо каждого процессора и каждого винчестера. Ставить их слишком плотно — не слишком выгодно: придётся ставить специальные мощные вентиляторы, продувающие эту слишком плотную конструкцию — а это деньги и, что гораздо хуже, лишние затраты энергии.
Это вы забываете что датацентр — это всё-таки конструкция, призванная подвести энергию к процессорам и винчестерам и отвести от них тепло (всё остальное — вторично).
Оптимальной это конструкция будет вовсе не тогда, когда вы напихаете много-много винчестеров в 1U корпус и поставите туда кучу ревущих вентиляторов.
Есть разумный компромисс между плотностью «набивки» и сложностью охлаждения этой набивки. Игрушка показанная на фотке от этого компромисса так же далека как обычный MidiTower с одним винчестером и одним процессором…
Это обеспечивается встроенной вентиляцией серверов.А эта встроенная вентиляция — она святым духом питается? Вот тут-то собака и порылась: при более плотной конпоновке серверов вам потребуются большие затраты энергии на охлаждение каждого сервера — и не факт, что это перекроется экономией на общей системе охлаждения.
Я как раз не забываю. Я еще к примеру помню что кроме вентиляции и питания есть коммуникации. банальная витая пара и оптоволокно.Даже оптоволокно стоит не так много, а уж витая пара — стоит копейки. Конечно всё это нужно учитывать, но это — не определяющие факторы.
У приведенной конструкции ревущих вентиляторов ровно два и они обладают очень нефиговой производительностью.А энергию для этой производительности поступает прямо от господа бога?
Вы когда в последний раз держали 1U сервер в руках?Давненько, это правда. Обычно они выезжают на салазках и держать их в руках не нужно. Кстати, внешний вид корпуса на картинке тоже подозрителен: в нём нет крышки (что разумно), но вот передняя стенка в нём есть — а зачем она нужна? Какую функцию исполняет? В общем всё указывает на то, что это игрушка сделана «по мотивам» гуглового сервера, но всё-таки гугловым сервером не является: срезаны далеко не все возможные углы…
Вот тут-то собака и порылась: при более плотной конпоновке серверов вам потребуются большие затраты энергии на охлаждение каждого сервера — и не факт, что это перекроется экономией на общей системе охлаждения.
Даже оптоволокно стоит не так много, а уж витая пара — стоит копейки. Конечно всё это нужно учитывать, но это — не определяющие факторы.
А энергию для этой производительности поступает прямо от господа бога?
Обычно они выезжают на салазках и держать их в руках не нужно.
Кстати, внешний вид корпуса на картинке тоже подозрителен: в нём нет крышки (что разумно), но вот передняя стенка в нём есть — а зачем она нужна? Какую функцию исполняет?
В общем всё указывает на то, что это игрушка сделана «по мотивам» гуглового сервера, но всё-таки гугловым сервером не является: срезаны далеко не все возможные углы…
Мощная принудительная вентиляция требуется только для мощных серверов.Не только. Мощная вентиляция вам потребуется ещё и в другом случае: если вы сдуру расположите компоненты слишком плотно. Скажем поставите 4 винчестера в ряд, как на картинке без зазоров между ними.
А стоимость работ в поддержании всего этого хозяйства в порядке и первоначальной прокладке где?Единственная стационарно смонтированная система, которая нам требуется — это вентиляция. Провода можно просто уложить желоба из пловолоки — дёшево и сердито.
Ту же что и решетка радиатора на автомобиле, защищает компоненты внутри от попадания в них всяких не очень нужных внутри вещей.От этого защищает охрана на входе в датацентр.
Ну а какие тогда с вашей точки зрения сервера использует гугл?
Не только. Мощная вентиляция вам потребуется ещё и в другом случае: если вы сдуру расположите компоненты слишком плотно. Скажем поставите 4 винчестера в ряд, как на картинке без зазоров между ними.
Единственная стационарно смонтированная система, которая нам требуется — это вентиляция. Провода можно просто уложить желоба из пловолоки — дёшево и сердито.
От этого защищает охрана на входе в датацентр.
Как выглядит идеальный сервер для такой задачи? Поддон на котором лежит материнка (возможно — две, а то и четыре — всё зависит от количества процессоров на
плату: 2 или 4, никак не 1) и винты (стопочкой, но с зазорами между ними — возможно на пластиковой подставке). Высота стопки — 2-3-4 винчестера, то есть 2U или 3U. Блок
питания — на несколько плат (определяется геометрией, но, видимо, тоже на 2-4 платы). Платы — максимально кастрированы (никаких видеокарт и USB), может быть
один диагностический разъём (надо считать что дешевле — иметь какую-никакую диагнстику и на время оно диагностики что-нибудь подключать или просто выкидывать
платы сразу… с учётом того, что PCI-E всё равно реализован в чипсете наверное один разъём оставить можно).
вентиляторы… Ну вентиляторы, конечно, нужны, но, опять-таки, нужны подешевше и послабее. Так как у нас поддоны идут через два-три вершка, то могут подойти
обычные корпусные на 8см или 12см. Может быть стоит поставить пару платиковых кожухов чтобы направлять воздух на винчестеры и процессоры.
Не поверите, но так винчестеры ставят довольно часто.Почему не поверю? Поверю. И у меня ровно так винчестеры в серере расположены. Если мне главное — уменьшить количество денег, уходящих на оплату, а оплата идёт «за юнит» — это хорошее решение.
В датацентрах обычно используют фальшьполы. Это удобнее. Удобнее — кому и чем? И они как раз являются стационарно смонитроваными. Как собственно и место расположение стоек.Если вы хотите сделать солидный, правильный датацентр — то да, вы вбухаете кучу денег в это дело. А если ваша цель — экономия средств, то вы сделаете несколько по другому.
А вообще рекомнедую посмотреть вот это:Прикольно, да. Только вот беда: тут всё ещё рассчёт на аренду с оплатой за вершок. А вам я советую посмотреть на одну-единственную фотку гуглового датацентра:
www.aicipc.ru/products/servernye_korpusa/rackmount_appliance_chassis_rac/26/

Ну и где тут 2U? Я вот вижу как раз таки 1U.Всё. Посыпаю голову пеплом. Это таки 1U. В стойках высотой 20U, а рядом с ними идёт гном, рост которого меньше метра. Как же я на такую простую фальсификацию-то попался?
А вот по тому что идет чувак это фальшпол.Ну разумеется! Охлаждать-то всё это хозяйство как-то нужно. Но хорошо видно что стойки на колёсиках и от каждой стойки идёт ровно один провод в корзину, а вовсе на под фальш-пол (надо полагать там switch стоит, а может и роутер). Ну посмотрите на картику внимательнее, чёрт побери.
По этой фотографии нельзя точно сказать какого размера корпуса.Наоборот! Там отлично видно всё! Нет там корпусов! Просто нет! Материнки просто лежат на лотках через 2U. Я бы скорее назвал эту конструкцию двуюнитовым сервером, чем одноюнитовым.
Провода распределены как при выткании в 1U.Ась? Что значитпровода распределены как при выткании в 1U? Провода воткнуты в материнки и всё… Какая принципиальная разница между распределением проводов при втыкании в 1U и в 2U???
Случае 2U питание втыкается выше.Питание там вообще с другой стороны — на этой фотке его не видно и не может быть видно. Найти фотку со стороны питания мне сходу не удалось, но вряд ли у них там низкоформатные блоки питания, рассчитанные на 1U: смысл какой — использовать более дорогие и менее мощные блоки питания если вся конструкция располагается через 2U?
Согласно СНиП у нас необходим фундамент, подошва которого расположена глубже границы промерзания, а ведь чем глубже он залегает, тем такой фундамент дороже, и цена его растет более чем пропорционально глубине. Вдвое более глубокий фундамент стоит дороже минимум втрое-вчетверо. У нас на юго-западной границе России глубина промерзания 110 см, а ближе к Поволжью — уже 170. Стоимость даже простого фундамента под легкий садовый домик составляет у нас 30 % от общей стоимости строительства.Вот так и выглядит стоительство всех этих бесконечных гугловых датацентров: лёгкая карскасная конструкция без фундамента. Зато с дорогим электичеством (оно и сейчас в России безумно дёшево). Разумеется это сильно меняет соотношение сил.
Думаете, заводские корпуса всегда строятся массивными, и фундамент везде делается глубоким? Не скажите. Чтобы построить завод, например, в Ирландии или Малайзии, достаточно заасфальтировать площадку и поставить каркасную конструкцию типа выставочного павильона. Фундамента на непромерзающем грунте практически не нужно, достаточно срезать дерн.
Именно такими современные заводы и строятся, одноэтажными. Ведь если земля не дорога, то при одинаковой полезной площади многоэтажные здания дороже одноэтажных и существенно сложнее, одни перекрытия сколько стоят. По моей просьбе мои знакомые поинтересовались, как строятся двухэтажные здания в Баварии — оказалось, что на твердом грунте — вообще без фундамента. В английском руководстве по индивидуальному строительству приведены разрезы
типичных особняков — там без фундамента строятся и трехэтажные здания.
А вот как раз этого Гуглу и не нужно. Если у вас есть несколько десятков датацентров, то гораздо проще производить расширение путём полного выключения датацентра, вывоза оттуда оборудования и запуска в той же коробке нового оборудования — снова без запаса «на вырост».
Для этого необходимо, чтобы у коробки были системы охлаждения и питания построены «на вырост».Вы опять не с той стороны смотрите. Система питания строится под мощности, которые удаётся купить, мощность системы охлаждения определяется мощностью системы питания, «на вырост» можно стоить разве что здание датацентра — что и делается.И опять же это указывает, на максимальную высокую плотность установки оборудования.Ну если мы ищем приключений на свою задницу — тогда да. А если мы разумные строители, то мы построим датацентр намного большей прощади чем нам нужно и если удастся получить ещё мощностей — поставим ещё компьютеров…
В случае гугла я бы предпочел первый вариант.Почему вдруг? Нам нужно максимальное количество памяти, процессоров (чем больше процессоров и чем у них ниже частота там лучше — при той же архитектуре, конечно) и винчестеров (места много не бывает) — вы сами говорите что в этом случае 2U оптимальный размер! Мне почему-то казалось что и 3U может подойти, но, похоже, Гугл выбрал 2U… 1U однозначно плох из-за проблем с вентиляцией…

плата ATX, 2 такие платы в один юнит невлезут.
решения у той же супермикро (twin), думаю, плотнее в размещении.
Серверы Google: по две штуки на 12V-плате