Comments 19
если добавить в каждый сервер ненужный светодиод, то при наличии 200 000 серверов стоимость светодиодов составит порядка 10 000 долларов, и даже если эти светодиоды будут «бесплатными» — потребление электроэнергии вырастет где-то на 20 кВт.
Цифры впечатляют. Подумать только — немного размышлений, и можно сократить стоимость на $10К, да и на энергии экономить!
Однако вдумаемся: если кто-то построил ЦОД на 200 000 серверов, и их туда закупил, разместил, запитал, запустил — мне кажется, его задачи таковы, что даже 10 тысяч погоды ему не сделают. Более того, если это 10 тыс. нужны, чтобы облегчить поиск сбойного узла (скажем, горит зеленый светодиод — все хорошо, красный — сбой, не горит — «что-то не так»), то лучше их заплатить, чем в 200 000 серверов (и еще каком количестве другого оборудования) искать концы.
Я, конечно, утрирую. Экономия всегда хорошо. Просто надо думать в относительных величинах, и понимать, сколько за сколько мы платим. С тем же успехом можно потребовать от производителя серверов не клеить эмблемы на их корпуса, чтобы пол ДЦ испытывал меньшую нагрузку в смысле веса — ведь даже если эмблема весит 5 граммов, на 200 000 серверов это составит целую тонну! :)
так ведь написано про ненужный светодиод. разумеется, есть нужные и полезные LED-ы, поэтому все решения требуют тщательнейшего анализа — что реально нужно, а без чего можно обойтись.
Мы с Вами об одном и пишем: надо точно понимать, что и за что мы тратим/платим/расходуем, и решать в каждом случае, стоят ли это затраты того :)
Но ДЦ на 200 000 серверов — это серьезно, что ни говори!
Но ДЦ на 200 000 серверов — это серьезно, что ни говори!
да, я просто удивлен открывшейся для меня сложностью задачи проектирования больших ДЦ, вот и делюсь ощущением :)
«Не боги горшки обжигают»! :)
Зато, когда читаешь рекомендации и стандарты на ДЦ применительно к ДЦ на 100 стоек, думаешь — «они маньяки, зачем столько всего?!» Когда понимаешь, что требования писались в первую очередь для таких вот серьезных ситуаций, начинаешь куда больше ценить и оценивать труд разработчиков — и стандартов, и ДЦ.
Зато, когда читаешь рекомендации и стандарты на ДЦ применительно к ДЦ на 100 стоек, думаешь — «они маньяки, зачем столько всего?!» Когда понимаешь, что требования писались в первую очередь для таких вот серьезных ситуаций, начинаешь куда больше ценить и оценивать труд разработчиков — и стандартов, и ДЦ.
Проектирование чего-то большого всегда связано с новыми ощущениями :)
Неважно — ЦОД это, или хайлоад веб-проект, или ещё что-то. Выход за рамки типовых решений всегда приносит массу нелинейностей и всегда доставляет.
Неважно — ЦОД это, или хайлоад веб-проект, или ещё что-то. Выход за рамки типовых решений всегда приносит массу нелинейностей и всегда доставляет.
Эффект больших чисел в массовом производстве всегда впечатляет:
«Ааааа, что стоило китайцам поставить на плату пару конденсаторов здесь и здесь и крепить корпус на два шурупа, а не на защелки».
Стоило: экономия в 1 цент на миллион штук это уже $10,000.
«Ааааа, что стоило китайцам поставить на плату пару конденсаторов здесь и здесь и крепить корпус на два шурупа, а не на защелки».
Стоило: экономия в 1 цент на миллион штук это уже $10,000.
Мне кажется тут не про дублирование и избыточность, а как раз наоборот. Что обеспечить работоспособность всех подсистем одновременно дорого, но можно сделать систему в целом менее чуствительной к отказу какой-либо конкретной подсистемы.
Статья достаточно общая, согласен, и не затрагивает конкретных примеров ПО. Это связано с тем, что конкретные решения, как упоминалось в статье, являются проприетарными, то есть написанными специально для конкретной компании, будь то Google, Yandex или Facebook. В общем случае, инфраструктура датацентров состоит из нескольких видов типовых серверов с определенными параметрами. Напиммер, сервер хранения, сервер кэширования, сервер баз данных — самые распространенные, и.т.д. Далее в дело вступает софт. Если говорить о дублировании, то «средним» показателем по больнице является 2.5 копии объекта. То есть любой файл хранится в двух или трех копиях. На двух или трех разных серверах. Дороговизна такого хранения компенсируется «нулевой» стоимостью контроллера (используются HBA вместо RAID) и использованием дешевых дисков. Это также связано с производительностью. Чем больше копий, тем выше производительность системы по этому файлу. Некоторые системы реплицируют файл столько раз, сколько это необходимо, чтобы добиться оптимальной производительности. В других случаях высоковостребованный файл кладется на специальные Storage-сервера с SSD. Я понимаю, что приведенной информации мало, для того, чтобы детально разобраться в технологиях. Но это действительно передний край строительства информационных систем, и за общими словами идут конкретные реализации. Ищите статьи Google, Yandex, Facebook, Amazon по архитектуре их систем. Кроме этого, есть сложившееся деление на архитекторов железа (коим в какой-то степени является автор статьи), архитекторов системного ПО (тоже имею отношение) и архитекторов прикладного ПО (вот здесь я как раз не очень хороший специалист). Архитектуры же супер-датацентров в большей степени формируются исходя из требований, предъявляемых последними.
думаю это задел на вторую статью… :)
Чрезвычайно интересно! С удовольствием почитал бы продолжение темы :)
Виртуализация используется редко
Разме Microsoft не первёл/переводит свою инфраструктуру в облака?
Sign up to leave a comment.
Мега-ЦОДы — пионеры инноваций