company_banner

Видеоэкскурсия в ЦОД Intel



    Сегодня мы хотим поговорить о современных серверных парках и центрах обработки данных компании Intel, которая, прежде чем выработать конкретную стратегию в данной области, прошла долгий путь. Исторически было так, что в тех местах, где компания покупала или строила здания, размещались и дата-центры для нужд находящихся там подразделений разработчиков. Опыт показал, что это не очень эффективно. При таком подходе количество дата-центров Intel в мире превысило 150 и, соответственно, они стали очень дорогой частью ресурсов корпорации. Поэтому был принят ряд решений, направленных на уменьшение общей стоимости владения дата-центрами. Одним из основных направлений стала их консолидация с целью уменьшения количества ЦОД'ов и серверных комнат, а также повышение утилизации вычислительных самих ресурсов. Очевидно, что несколько маленьких серверных комнат с загрузкой порядка 40% в обслуживании обходятся дороже, чем одна большая комната с загрузкой 60-70%.

    И если в самом начале, глобальной целью являлось максимальное сокращение количества дата-центров, чуть ли не до 18-20 штук (со 150, как мы помним), то с течением времени стало понятно, что это физически неосуществимо и все равно какой-то объем оборудования должен находиться в удаленных местах, а не только на больших хабах. Потому что и WAN-каналы на сегодняшний момент не позволяют консолидировать все в такой высокой степени, и еще масса вещей препятствует или делает нецелесообразной такую концентрацию серверных ресурсов. Поэтому было решено вместо столь глобальной консолидации перейти к повышению утилизации дата-центров. Ведь главная цель — минимизировать капитальные вложений в ЦОД'ы, то есть не строить новые, а эффективно использовать уже имеющиеся. Строительство нового ЦОД'а — это колоссальные деньги, миллионы и миллионы долларов в зависимости от его размера.

    Данный этап стратегии в отношении дата-центров проходил в Intel несколько лет назад, была реализована огромная программа мероприятий направленных на консолидацию, оказавшаяся в итоге весьма успешной.

    Рассмотрим же основные моменты организациии дата-центров компании на примере российского ЦОД. Первый вопрос, наверняка возникающий у хабраюзера — что же уникального мы можем найти в данном месте?

    Во-первых, разделение дата-центра на зоны с высокой и низкой плотностью вычислительных ресурсов. Так как размеры офиса не такие гигантские, все это объединено в одном помещении, где отдельно от стоек с оборудованием высокой плотности расположены стойки с оборудованием низкой плотности. Это, например, стойки с дисковыми массивами, выделяющие порядка 4 киловатт тепла (больше такие стойки просто не выделяют), или стойки с сетевым и коммуникационным оборудованием. Конечно, для них не имеет смысла строить охлаждение и питание точно так же, как для стоек с вычислительными серверами. Для оборудования с низкой плотностью подводится меньше электрической мощности на стойку, а если посмотреть на комнату сверху, то в той части, где собрано такое оборудование, размещен один ряд кондиционеров. Для оборудования с высокой плотностью кондиционеры располагаются в два ряда и обдувают стойки с обеих сторон.

    Во-вторых, используемая здесь система свободного охлаждения Free-cooling. На самом деле, существует две технологии free cooling'а — прямое и непрямое охлаждение. В первом случае воздух с улицы гонится непосредственно на охлаждение серверов. При непрямом free cooling'е существуют чиллеры, охлаждающие воду в теплое время года, но при достаточно низкой температуре на улице внешний контур, обычно отводящий тепло от чиллеров, задействуется напрямую через теплообменник для охлаждения, а чиллер просто выключается. Для России эффективнее использовать систему непрямого охлаждения по ряду причин. О них и о системе free-cooling'а, в целом, будет рассказано подробнее в одном из следующих материалов, посвященных стратегии Intel в отношении центров обработки данных.

    Третий момент — внедрение в качестве пилотного проекта системы рекуперации тепла, которая изначально представляла собой часть общей экологической программы Intel. Система состоит, условно говоря, из устройства, которое подключено к горячей трубе и вырабатывает горячую воду, используя разницу в температуре между горячей и холодной трубами. Как и при охлаждении воды для прецизионных кондиционеров, там так же установлена емкость, в которой аккумулируется горячая вода. Ее температура составляет порядка 60 градусов. Эта вода используется для нужд горячего водоснабжения здания (точнее, его офисных помещений). В первую очередь напрямую, т.е. подается в умывальники. Также в здании имеется, например, два кафетерия, где постоянно моется посуда, или, к примеру, есть душевая и т.д. В данное здание горячая вода от централизованного снабжения не подведена вообще, поэтому у там стоят электрические бойлеры. Их отключение, естественно, дает экономию. Вторая цель в реализации данного проекта — это подвод получаемой горячей воды к системе отопления.
    Компания Intel является фактически первопроходцами в этом деле и главная задача — выяснить, сколько можно реально произвести тепла за счет рекуперации, как его лучше использовать, чтобы получить наибольшую экономию и т.д.

    Сейчас еще рано говорить, насколько данная система способна понизить затраты на охлаждение ЦОД'а, и какую конкретно экономию возможно получить на обеспечении потребностей здания. Система была смонтирована в декабре 2010 и запущена в январе 2011 года. Система работает в пробном режиме и постепенно набирает обороты. Судить же о реальном уровне снижения затрат и возможных масштабах развертывания такой системы рекуперации еще рано — ее результаты будут замеряться в долгосрочной перспективе. Однако уже сегодня можно сказать, что Intel обладает абсолютно уникальным подходом в отношении организации своих дата-центров, с использованием инновационных методов и технологий.

    Полную версию интервью с Леонидом Шишловым вы можете прочитать пройдя по ссылке в сообщество профессионалов Intel.
    Intel
    177,90
    Компания
    Поделиться публикацией

    Комментарии 27

      +4
      Intel молодцы
        0
        Молодцы, смотреть интересно, но ЦОД выглядит как-то не космично :) Чем-то напомнило обычный советский ВЦ.
        +2
        Очень актуально. Молодцы. С нетерпением жду следующих серий.
          –4
          Не время для экскурсий. Все на яндексе. )
            +2
            вот какими должны быть статьи в блогах компаний
              +1
              как мало нужно людям, оказывается!
                0
                Угу. Стараешься, пишешь, а на самом деле публике нужны картинки :)
                «Хлеба и зрелищ», когда еще было сказано…
                  0
                  Хехе, NetApp детектед. Причем вроде даже еще дремучие 900-е их на ходу.
                +8

                Красота то какая, ляпота ©

                Стряхнул слезу и стараюсь больше к нам в серверную не заходить :(
                  –5
                  Этот ЦОД для ИТ будет адом, когда что-то полетит в крупных масштабах…
                    +1
                    Почему?
                    +6
                    а по сути практически ниче не показали. В дальнейшем ожидаем большего :)
                      +1
                      Краткий, приятный обзор новых веяний в области организации ЦОД'ов. Хотя идеи рекуперации тепла и летают в воздухе, к сожалению внедряются слабовато.
                        –12
                        Хостица надо в европе или штатах, а не в каких-то горожах на задворках восточной европы
                          +1
                          при чем тут веб-хостинг?
                            0
                            при чем тут веб-хостинг?
                            0
                            Рад, что начали показывать ЦОДы публике в гораздо большем масштабе чем ранее. Обычно на это всё банально не даётся одобрения со стороны служб безопасности. (да и в этом ролике по-чесноку показали лишь общие кадры и то пару раз их зациклили)
                            В очень многих случаях там есть чем похвастаться и сделать пиар компании-содержателю. Но блин… это ведь опасно даже рассказать что у тебя есть такое, не то чтобы показать! ))
                            К сожалению обычная практика в России — у каждой компании свой собственный дата-центр.
                            Тогда как на западе гораздо чаще используют продаваемые пространства общего большого дата-центра.
                            Причина проста… у нас ещё эта практика не развита, хотя есть как минимум М1.
                            Про охлаждение — системы рекуперации надо закладывать ещё на этапе проектирования, менять уже существующие ЦОДы — это гигантские затраты. Соответственно это станет стандартом ещё очень и очень не скоро… хотя идеи витают уже лет пять как минимум.
                              +1
                              Он там в обычной обуви и без комбеза, а как же пыль и т.п.?
                                0
                                Это-ж ЦОД, а не цех по производству CPU где пылинка может стоить пары десятков тыщ зелени.
                                +4
                                Обычный ЦОД. Скучно. Мясо где? Где КИШКИ РАСЧЛЕНЁНКА?
                                  0
                                  Где железо Intel? В кадре были HP и IBM. Антипиар какой-то =)
                                    0
                                    А еще EMC (Clariion) и NetApp FAS980 и FAS6200.
                                      +1
                                      Intel inside.
                                    0
                                    Обычно. А вот самое интересное, как ори рекуперацию тепла используют, было бы занятно посмотреть. Остальные технологии уже достаточно распространенные и известные всем (горячий/холодный коридор, охлаждение чилерами и продув через фальшпол, зимний режим системы охлаждения, N+1 во всей инженерке).
                                    Кстати, про единую точку отказа… Дизель то один. Хотя, N+1 ставят крайне редко, это тот случай, когда поднять еще несколько десятичных знаков после запятой очень дорого.

                                    Другими словами, хотелось бы посмотреть не на то, какой там порядок и как все правильно, а какие новые и нестандартные решения использует такой гигант, как Интел.
                                      0
                                      А вот hot и cold aisle у них оно название. Для полноценного hot/cold aisle потоки воздуха не должны смешиваться нигде и никак, хоть бы пластиковые занавеси повесили между стойками, сразу бы был эффект.
                                        0
                                        Думал приду на работу, покажу сотрудникам как надо строить ЦОДы.
                                        Хотелось увидеть что-то новое в организации, какие-то серьезные серверные решения.

                                        Возможно они и есть, но их просто не показали.
                                        Но на первый взгляд обычный ЦОД, при чем в Киеве есть на 3кU, полностью забитые.

                                        В общем обычный промышленный ЦОД, просто правильно построенный.
                                          0
                                          «Для России и континентальной Европы это самый крупный центр обработки данных». 1000 серверов это самый крупный ЦОД для Европы? Наверное, имелось в виду среди ЦОД'ов Intel'а?

                                          Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                          Самое читаемое