Комментарии 9
Простите, я немного далек от такого количества серверов в стойках. Поэтому, возможно, слегка дилетантские впечатления.
Все понятно, для чего так сделано.
Но выглядит все как результат творчества станции юных техников, неожиданно выигравшей грант правительства.
Ну и как бы классика кинематографа тоже вспоминается. "Захочешь жить, не так раскорячишься" (с)
Crucial, впрочем поддерживаю двумя руками. Даже такой.
Полную ерунду пишите. Тот же гугл также делает в своих цодах. Посмотрите как они увеличивали плотность вычислений. И что интересно - делают так с начала 2010 года
Ерунду в каком именно именно моменте? Я же написал, что мне понятно для чего это делается. В масштабах гугла это дает еще больший экономический эффект. Что не отменяет того факта, что смотрится топорно и надежность этого как бы десктопная и выходит. Да, я в курсе, что датацентры используют и обычные десктопные HDD.
Или вас не устроила фраза из кино? Ну так эти же решения реально же для выживания. Как самого датацентра так и юзеров.
Огонь! Отличный DIY. Особенно улыбнула надпись "Trotling shall not pass Edition".
Это радует что вы это делаете. Спасибо.
Правда коллеги из Ovh делают это с 2015 года, нам понадобилось 10 лет)
Вот фото стоек от kimsufi


почему не используете блоки питания HP (например) + pico psu? на один БП можно повесить несколько "узлов"
Основная идея заключается в следующем:
Во-первых, предпочтение было отдано использованию обычных десктопных комплектующих, поскольку они широко распространены, легко заменяемы и относительно недороги по сравнению с профессиональными серверными компонентами.
Во-вторых, ключевым фактором является предотвращение сценария, при котором выход из строя какого-то общего элемента, например, блока питания HP, нарушит работу не одного отдельного сервера, а сразу нескольких, что повлечет за собой значительные проблемы доступности сервисов.
Как уплотнялись серверы линейки ChipCore