Спасибо, исправил. Тему о суббоеприпасе сначала раскрыл, но потом убрал, так как там была не совсем находка, а история о том, как сисадмины использовали ее в виде пепельницы. Она мне понравилась, но не совсем была в тему "сюрпризов".
Спасибо за замечание, запутался в тексте. А по статье решил, что интересно будет соотнести мнение нейросети, выстроенное на данных в сети, и собственное.
Спасибо за комментарий — вы правы, в коммерческих ЦОД арендаторам часто выставляют счёт не по фактическому потреблению, а по выданной мощности. Это удобно для резервирования, но не всегда отражает реальную нагрузку. В статье речь шла о расходах самого дата-центра в целом.
По охлаждению, COP у классических кондиционеров может достигать 3, но в серверных работают прецизионные системы, у которых эффективность ниже — особенно с учётом постоянной работы, вентиляции, насосов и резервов.
Что касается idle — приведённые цифры усреднены, в ряде конфигураций простои действительно могут тянуть 40–60% от пика, особенно если отключены C-стейты или EIST.
Пример с термосом не совсем точен, он герметичен, и тут вакуум — теплоизолятор в плане теплопередачи через контакт. В космосе работает другой механизм отвода тепла — инфракрасное излучение, и именно оно позволяет охлаждать оборудование.
Пример: панели-радиаторы на спутниках отдают тепло в виде ИК-излучения прямо в пространство, и чем холоднее фон — тем эффективнее этот процесс.
Тут «температура вакуума» (фон реликтового излучения) около −270,45 °C говорит о том, что охлаждение в космосе может быть преимуществом, но точно мы об этом будем знать после практической реализации концепции.
На практике случаев не было, и предугадать невозможно, пока не придем к этому. Будущее покажет, насколько коммерческие орбитальные ЦОДы будут лучше земных)
Соглашусь, регуляторика везде есть, но в России тренд на импортозамещение и свои разработки начал формироваться именно в последние годы по известным всем причинам.
Спасибо за комментарий. Картинки поправил, формулировку тоже. Изначально имел в виду, что у инженеров, которые работали в YAML, на фоне контейнеризации появились новые задачи.
Спасибо, исправил. Тему о суббоеприпасе сначала раскрыл, но потом убрал, так как там была не совсем находка, а история о том, как сисадмины использовали ее в виде пепельницы. Она мне понравилась, но не совсем была в тему "сюрпризов".
Спасибо за замечание, запутался в тексте. А по статье решил, что интересно будет соотнести мнение нейросети, выстроенное на данных в сети, и собственное.
Спасибо за комментарий — вы правы, в коммерческих ЦОД арендаторам часто выставляют счёт не по фактическому потреблению, а по выданной мощности. Это удобно для резервирования, но не всегда отражает реальную нагрузку. В статье речь шла о расходах самого дата-центра в целом.
По охлаждению, COP у классических кондиционеров может достигать 3, но в серверных работают прецизионные системы, у которых эффективность ниже — особенно с учётом постоянной работы, вентиляции, насосов и резервов.
Что касается idle — приведённые цифры усреднены, в ряде конфигураций простои действительно могут тянуть 40–60% от пика, особенно если отключены C-стейты или EIST.
Исправил, спасибо!
Пример с термосом не совсем точен, он герметичен, и тут вакуум — теплоизолятор в плане теплопередачи через контакт. В космосе работает другой механизм отвода тепла — инфракрасное излучение, и именно оно позволяет охлаждать оборудование.
Пример: панели-радиаторы на спутниках отдают тепло в виде ИК-излучения прямо в пространство, и чем холоднее фон — тем эффективнее этот процесс.
Тут «температура вакуума» (фон реликтового излучения) около −270,45 °C говорит о том, что охлаждение в космосе может быть преимуществом, но точно мы об этом будем знать после практической реализации концепции.
На практике случаев не было, и предугадать невозможно, пока не придем к этому. Будущее покажет, насколько коммерческие орбитальные ЦОДы будут лучше земных)
Соглашусь, регуляторика везде есть, но в России тренд на импортозамещение и свои разработки начал формироваться именно в последние годы по известным всем причинам.
Спасибо за комментарий. Картинки поправил, формулировку тоже. Изначально имел в виду, что у инженеров, которые работали в YAML, на фоне контейнеризации появились новые задачи.
Под «ламповыми» имел в виду ностальгически тёплые, у энтузиастов дома.