Фотоэкскурсия в ЦОД «DataPro Тверь», Часть 1

    После официального ввода в эксплуатацию ЦОДа «DataPro Тверь» его посетили гости — представители делового сообщества Твери, Санкт-Петербурга и Москвы, чтобы более детально познакомиться с объектом. Повышенный интерес к ЦОД вызвал стремительный выход компании DataPro на рынок дата-центров России, успешная реализация проекта, вписавшегося в заданные сроки и бюджет, а также уникальные инженерные решения, которые применены на этом объекте.

    Дата-центр «DataPro Тверь» получил сертификат Uptime Institute уровня отказоустойчивости Tier III в категории Design. В ближайшее время планируется получение сертификата на сам объект строительства (Tier III Facility).


    «DataPro Тверь» — это пример хорошо управляемого проекта, продуманного дизайна…



    … а также хорошо охраняемого предприятия. В комплексную систему безопасности здания входят круглосуточный пост охраны, функции которого дополняет внешний и внутренний контур системы видеонаблюдения, а также СКУД с биометрическими терминалами. Благодаря этим мерам объект представляет собой неприступную крепость.





    Доступ в ЦОД осуществляется с соблюдением всех строгих правил (в том числе с использованием биометрических терминалов), которые характерны для режимного объекта.



    Для того чтобы сохранить в помещениях дата-центра идеальную чистоту, на входе гостям предлагают надеть традиционные бахилы или воспользоваться специальным аппаратом для надевания бахил.



    Внешний фасад и полы внутри помещения облицованы качественной плиткой, рассчитанной на длительную эксплуатацию.





    Подведенная к ЦОДу «DataPro Тверь» мощность составляет 4,5 МВт. Электропитание обеспечивают два независимых фидера от городских подстанций. Рабочая часть дата-центра состоит из четырех машинных залов, по 170 кв. м., в которых суммарно могут разместиться до 400 стоек. Общая площадь здания ЦОД «DataPro Тверь» — 2650 кв. м, фальшпола — 1000 кв. м.



    Машинные залы полностью подготовлены для установки оборудования клиентов. Охлаждение организовано по принципу «горячих и холодных» коридоров.





    В дата-центре установлено оборудование только от ведущих поставщиков. Все серверное и сетевое оборудование размещается в стандартных 19” запираемых шкафах APC by Schneider Electric.







    Облачные сервисы реализованы на программно-аппратной платформе HP и VMware.









    Для развертывания сети Ethernet в дата-центре инсталлирована структурированная кабельная система на базе пассивного сетевого оборудования TE Connectivity. Поставщиком активного сетевого оборудования стала компания Cisco Systems.









    На первом этаже дата-центра расположены технические помещения, в которых установлены: главный распределительный щит (ГРЩ), кондиционеры, система адиабатического увлажнения, источники бесперебойного питания (ИБП) с батарейными полками.

    В «DataPro Тверь» использованы эффективные и вместе с тем экономичные решения, которые со временем, возможно, возьмут на вооружение и другие проектировщики и строители ЦОДов. Инженерные решения реализованы таким образом, чтобы капиталовложения и мощность дата-центра можно было наращивать шаг за шагом.

    К примеру, оригинально был решен вопрос с выбором схемы гарантированного электропитания нагрузки: реализована схема 3/2N («звезда»), которая успешно применяется во многих зарубежных ЦОДах.



    Общее энергопотребление одного серверного помещения составляет 700 кВт. В каждом из трех помещений ИБП установлена группа из трех источников Galaxy 7000 производства Schneider Electric мощностью по 400 кВА. Каждая нагрузка в такой схеме подключена к двум активным входам. В число критичных нагрузок, также входит и система кондиционирования.

    В нормальном, рабочем режиме все нагрузки защищены источниками бесперебойного питания. При пропадании одного из лучей работоспособность сохраняется: даже если произойдет авария на централизованной шине одной из групп ИБП, нагрузку подхватит от другого ввода соседняя группа ИБП. Количество ИБП в этой схеме меньше в сравнении со схемой 2N (3х400х4=4800), а следовательно, система дешевле: общая установленная мощность составляет 3600 кВА (3х400х3).



    В таком варианте сохраняются все достоинства надежной схемы 2N. При этом ИБП загружены на 2/3 от номинала, а не на 50 %, как в схеме 2N. Поэтому и КПД выше, а счета за электричество меньше. Используемая на тверском объекте схема резервирования 3/2N впервые в России сертифицирована Uptime Institute.



    Фотооэкскурсия в ЦОД «DataPro Тверь», Часть 2 — habrahabr.ru/company/datapro/blog/214495
    DataPro
    Company
    AdBlock has stolen the banner, but banners are not teeth — they will be back

    More
    Ads

    Comments 18

      +6
      У меня вопрос — а кто ваш потенциальный клиент?
      Вы очень красиво иллюстрируете инфраструктуру ЦОД, но единственное упоминание о его сетевой составляющей я нашел в строчке ...«Поставщиком активного сетевого оборудования стала компания Cisco Systems.»
      про аплинки и сетевую связанность вообще ни слова.
      На основании данных из этой статьи мне кажется этот ЦОД — отличное место для хостинга утюгов, фенов, возможно щипцов для завивки. Энергии — завались, охлаждение на высоте, пожаротушение — тоже есть, а в интернет утюги, в большинстве своем, и не ходят…
      +8
      Классный склад шкафов APC
        +2
        Мой вопрос потерялся с предыдущим постом. Повторю: на картинках обычное складское помещение отапливаемого типа с подводом питания для серверов, не более. Про связность ни слова, а без этого склад никому не интересен.
          +1
          DataPro Тверь» — это пример хорошо управляемого проекта, продуманного дизайна.

          сам себя не похвалишь — никто не похвалит? На чем основано утверждение «хорошести» и «продуманности»?
            0
            Обуславливается работой над проектами высококлассных специалистов, уникальными для российского рынка инженерными решениями, ну и конечно, сроками их реализации. Более подробная информация представлена в материалах, опубликованных в нашем блоге.
              0
              Что касается «хорошести», в первую очередь потому, что от момента начала проектирования ЦОД (середина февраля 2013 г.) до полной готовности его технологической части (конец октября 2013 г.) прошло 8,5 месяцев, затем месяц тестов и с конца ноября ЦОД уже был введен в коммерческую эксплуатацию. Мы склонны считать, что это достойный показатель слаженной работы всей проектной команды, а следовательно и грамотного управления проектом в целом. Если можете привести еще примеры строительства аналогичных по емкости ЦОДов в такие же сроки, будет только рады :)

              Теперь про «продуманность», она заключается в ряде особенностей выбранных инженерных решений, которые позволили нам существенно сократить капитальные затраты, а впоследствии и операционные, без потери качества и эффективности конечного «продукта». Например организация системы электроснабжения по схеме 3/2N, внедрение системы адиабатического увлажнения воздуха, в ближайшее время также будет внедрена система собственной генерации электроэнергии на газе.

              А вообще лучше приезжайте и сами все посмотрите, тогда и вопросы все отпадут :)
            +1
            Для неприступной крепости не хватает колючей проволоки по периметру
              +3
              Коллеги, да, действительно упустили из вида один из важнейших моментов в описании, исправляемся.

              Связанность площадки обеспечивается посредством высокоскоростных дублированных каналов, от двух независимых магистральных операторов, с использованием облака MPLS. Емкость каналов на сегодняшний день до 60 Гбит, есть возможность существенного расширения (транзит Европа-Азия проходит через Тверь). В Москве есть присутствие на ММТС-9 и в ближайшее время будем подключаться к MSK-IX.
              По Твери есть собственные каналы до локальных операторских точек, ул. Вагжанова, 7 Тверской ОРТПЦ (здесь присутствуют все местные и большая часть магистральных операторов) и ул. Колодкина, 10 (РЖД) (здесь присутствуют Транс-телеком и Раском).
              Всё активное сетевое оборудование задублировано (Cisco ASR 9001 x2, Cisco Nexus 7004 x2)
                0
                lg покажите. Рассказы про «высокоскоростные» — это в пользу бедных. 2 секунды на пинг — это высокая скорость? А 200мс?
                  +1
                  Для увеличения надежности можно было бы использовать маршрутизаторы и коммутаторы не одного производителя, а двух разных, чтобы программный баг не положил задублированное одинаковое оборудование.
                  0
                  Первая фотография к посту чем то напоминает первую часть игры Макс Пейн)
                    0
                    охлаждённый воздух подаётся под фальшпол? если да — то почему на фото обычная глухая плитка в коридорах? пока не стали укладывать перфорированную?
                      0
                      да схема охлаждения стандартная с нижней подачей воздуха, на фото установлены ряды стоек под заказчиков, но оборудования в них еще нет, соответственно и плитка перфорированная еще не уложена.

                    Only users with full accounts can post comments. Log in, please.