Pull to refresh

Comments 40

А ведь кто-то не только представляет, а ещё и следит и админит всё это стадо серверов. Некий рай для фаната IT-шника.
На таких количествах любая романтика железа пропадает и приходят довольно злые и скучные регламенты, в которых каждый сотрудник как на конвеере (почему как?) занят конкретной узкой областью и не имеет доступа к «картине целиком». Распаковкой/установкой занимаются отдельные люди, подключением другие, реагируют на hardware error от системы мониторинга третьи, решают какие сервера где и что делают — в массовом планировании третьи/четвёртые, причём сами сервера они, возможно, и в глаза не видели.
Верно, но именно поэтому я добавил «для фаната». Таким обычно интересно все что с этим связано.
IT директор знает картину комплексно! Он ее рисует! Вот кто в раю))
Вопрос от любителя: как они в 25 стоек запихнули 1600 блэйд-серверов? Это же по 64 сервера на стойку…
Я понимаю, но стойка на 64 лезвия?.. Где можно на неё посмотреть?
если смотреть по этой пикче то вполне возможно
image
В стандартных серверных стойках минимальный размер сервера принято называть 1U или 1 юнит (19 дюймов в ширину х 1,75 дюйма в высоту). Как правило, такие стойки вмещают 42 юнита оборудования, то есть максимум 42 сервера. Использование блэйд-серверов позволяет обойти это ограничение не выходя за размеры стандартой стойки и разместить до 100 серверов в каждой.
Спасибо, я как раз не понимал разницу между обычным сервером 1U и лезвием, теперь понял.
Замечу, что уже давным-давно делаются сервера в 1/2U, и даже меньше. Так что средняя стойка уже давно хранит много больше, чем 42 сервера безо всяких блейдов.
Не только. У intel есть решения. И ещё у кого-то видел, но уже запамятовал.
не только. Их много кто делает, насколько я понимаю.
Кстати, а как уживается «блейдовость» и GPU (есть у них какие-то инстансы для GPU-расчётов)?
Ого-го, круто. Прям лезвие из видеокарты, я впечатлён. Сколько же там блок питания должен выдавать и как должно быть реализовано охлаждение?
По ссылке всё написано, эта штука занимает место одного лезвия, так что разница не очень большая.
А что такого? На то они и блейды.
UFO just landed and posted this here
Только недавно пытался найти статистику, только по Azure
Вроде как все сервисы, включая S3
у S3 больше присутствия чем у EC2
В коментариях к оригинальность статье есть важная мысль. East Cost DC находится в несильно людном месте и 1) Место не проблема 2) Блейды дороже 1U сервеверов 3) от плотной набивки сложнее и дороже отводить тепло + ряд иных менее везких факторов. Посему выходит цифра завышена в разы.
2) Блейды дороже 1U сервеверов

Нужно считать вместе с обслуживанием и инфраструктурой. При 100+ серверах, блейды выходя дешевле.
Все в том же оригианеле говорится что ДОРОЖЕ, только разговор не про 100+, а про 1000+.
Возможно, есть какой-то опитимум развертывания блейдов, но никто из крупных игроков hosting/cloud имеющих более 100.000 серверов бледы не разворачивает.
Интересно, а есть похожие данные для Microsoft и других?
Так это данные на 13 февраля 2008. Сейчас я не удивлюсь если в МС серверов раз в 10-20 больше. Тем более что компании такие данные обычно не публикуют.
Помнится циска отказалась от использований блейд-серверов в силу того, что в существующих ДЦ весьма проблематично отводить более 10кВт тепла на стойку. А вот Амазон, смотри ж, эту проблему, видимо, решил.
Интересно, сколько им обходится обслуживание всего этого добра.
Проблема с теплом уже решена. Например есть стойки с радиаторами водяного охлаждения, успешно эту проблему решающие. Например Rittal такие производит.
Потом адрес из сети 10.x.x.x где-либо NATится в реальный адрес (в обе стороны), верно ведь? Интересно, что за оборудование для этого используется и в каких ДЦ установлено.
Sign up to leave a comment.

Articles