Сколько серверов в облаке Amazon EC2?

    Как и многие другие интернет-компании, Amazon не разглашает информацию о своей инфраструктуре, в том числе о количестве серверов. Но аналитик из Accenture Technology Labs произвёл собственный подсчёт: у него получилось, что в семи дата-центрах Amazon Web Services должно быть по крайней мере 454 400 серверов.

    Интересно, что 70% из них находится в регионе US East (Виргиния).
    Кол-во серверных стоек Кол-во блэйд-серверов
    US East (Виргиния) 5030 321 920
    US West (Орегон) 41 2624
    US West (Сев. Калифорния) 630 40 320
    EU West (Ирландия) 814 52 096
    AP Northeast (Япония) 314 20 096
    AP Southeast (Сингапур) 246 15 744
    SA East (Сан-Паулу) 25 1600
    Всего 7100 454 400

    Amazon использует регулярный паттерн присвоения внутренних IP-адресов: каждый инстанс получает адрес 10.x.x.x, а каждая стойка получает диапазон 10.x.x.x/22, то есть можно определить все виртуальные машины в этой стойке. Исследователь просканировал AWS путём DNS-запросов внутри сети EC2, используя внешние IP-адреса инстансов, их диапазоны известны.

    Непосредственно количество блэйд-серверов оценивалось исходя из информации о 64 блэйдах на стойку — четыре шасси 10U, на каждом шасси по 16 блэйдов (вот как раз это предположение ни на чём не основано).

    Подробнее о методологии исследования см. в блоге автора.

    Данная оценка уже вызвала дебаты среди экспертов. Они спорят, сколько серверов может быть на самом деле в каждой стойке, потому что у компании сменилось несколько поколений оборудования. Но в любом случае общее мнение сходится к тому, что Amazon по количеству серверов уже обогнал всех хостинг-провайдеров, которые публично разглашают информацию о количестве серверов, но ещё точно не догнал Google, у которой в сети дата-центров около 900 тыс. серверов.

    Нужно также отметить довольно быстрый рост инфраструктуры Amazon, на графике показано увеличение количества стоек в регионе US East, за указанный период он прибавлял в среднем по 110 стоек в месяц.

    Ads
    AdBlock has stolen the banner, but banners are not teeth — they will be back

    More

    Comments 40

      +16
      Даже не буду пытаться это представить
        +3
        А ведь кто-то не только представляет, а ещё и следит и админит всё это стадо серверов. Некий рай для фаната IT-шника.
          +2
          Рай? Ой не знаю, не знаю.
            +12
            На таких количествах любая романтика железа пропадает и приходят довольно злые и скучные регламенты, в которых каждый сотрудник как на конвеере (почему как?) занят конкретной узкой областью и не имеет доступа к «картине целиком». Распаковкой/установкой занимаются отдельные люди, подключением другие, реагируют на hardware error от системы мониторинга третьи, решают какие сервера где и что делают — в массовом планировании третьи/четвёртые, причём сами сервера они, возможно, и в глаза не видели.
              0
              Верно, но именно поэтому я добавил «для фаната». Таким обычно интересно все что с этим связано.
                0
                IT директор знает картину комплексно! Он ее рисует! Вот кто в раю))
            0
            Вопрос от любителя: как они в 25 стоек запихнули 1600 блэйд-серверов? Это же по 64 сервера на стойку…
              +1
              может имеется ввиду про лезвия
                0
                Я понимаю, но стойка на 64 лезвия?.. Где можно на неё посмотреть?
                  +3
                  если смотреть по этой пикче то вполне возможно
                  image
                    +4
                    В стандартных серверных стойках минимальный размер сервера принято называть 1U или 1 юнит (19 дюймов в ширину х 1,75 дюйма в высоту). Как правило, такие стойки вмещают 42 юнита оборудования, то есть максимум 42 сервера. Использование блэйд-серверов позволяет обойти это ограничение не выходя за размеры стандартой стойки и разместить до 100 серверов в каждой.
                      +1
                      Спасибо, я как раз не понимал разницу между обычным сервером 1U и лезвием, теперь понял.
                        0
                        Замечу, что уже давным-давно делаются сервера в 1/2U, и даже меньше. Так что средняя стойка уже давно хранит много больше, чем 42 сервера безо всяких блейдов.
                          0
                          Twin серия у supermicro?
                            0
                            Не только. У intel есть решения. И ещё у кого-то видел, но уже запамятовал.
                              0
                              не только. Их много кто делает, насколько я понимаю.
                              0
                              Кстати, а как уживается «блейдовость» и GPU (есть у них какие-то инстансы для GPU-расчётов)?
                                0
                                Есть лезвия с видеокартами, например, у IBM:
                                www.redbooks.ibm.com/abstracts/tips0798.html
                                  0
                                  Ого-го, круто. Прям лезвие из видеокарты, я впечатлён. Сколько же там блок питания должен выдавать и как должно быть реализовано охлаждение?
                                    0
                                    По ссылке всё написано, эта штука занимает место одного лезвия, так что разница не очень большая.
                                      0
                                      Потребление одной корзины — около 5кВт.
                          0
                          А что такого? На то они и блейды.
                          • UFO just landed and posted this here
                              +7
                              прафисианалы набежали.
                            0
                            Только недавно пытался найти статистику, только по Azure
                              0
                              и это только EC2
                                0
                                Вроде как все сервисы, включая S3
                                  0
                                  у S3 больше присутствия чем у EC2
                                0
                                В коментариях к оригинальность статье есть важная мысль. East Cost DC находится в несильно людном месте и 1) Место не проблема 2) Блейды дороже 1U сервеверов 3) от плотной набивки сложнее и дороже отводить тепло + ряд иных менее везких факторов. Посему выходит цифра завышена в разы.
                                  0
                                  2) Блейды дороже 1U сервеверов

                                  Нужно считать вместе с обслуживанием и инфраструктурой. При 100+ серверах, блейды выходя дешевле.
                                    0
                                    Все в том же оригианеле говорится что ДОРОЖЕ, только разговор не про 100+, а про 1000+.
                                    Возможно, есть какой-то опитимум развертывания блейдов, но никто из крупных игроков hosting/cloud имеющих более 100.000 серверов бледы не разворачивает.
                                  0
                                  110 стоек в неделю. Вот это развитие
                                    0
                                    В месяц.
                                      0
                                      всё равно не мало.
                                    0
                                    Интересно, а есть похожие данные для Microsoft и других?
                                      0
                                      Как написано, серверов у MS поменьше будет: около 15000.
                                        0
                                        Так это данные на 13 февраля 2008. Сейчас я не удивлюсь если в МС серверов раз в 10-20 больше. Тем более что компании такие данные обычно не публикуют.
                                      +1
                                      Помнится циска отказалась от использований блейд-серверов в силу того, что в существующих ДЦ весьма проблематично отводить более 10кВт тепла на стойку. А вот Амазон, смотри ж, эту проблему, видимо, решил.
                                      Интересно, сколько им обходится обслуживание всего этого добра.
                                        +2
                                        Проблема с теплом уже решена. Например есть стойки с радиаторами водяного охлаждения, успешно эту проблему решающие. Например Rittal такие производит.
                                        +1
                                        Потом адрес из сети 10.x.x.x где-либо NATится в реальный адрес (в обе стороны), верно ведь? Интересно, что за оборудование для этого используется и в каких ДЦ установлено.

                                        Only users with full accounts can post comments. Log in, please.