Уже в третий раз в Санкт-Петербурге под эгидой провайдера “Комфортел” проводится экскурсия Data Center Expedition PRO. Суть мероприятия — в течении одного дня получить максимально широкое представление о рынке дата-центров Санкт-Петербурга. В этот раз на экскурсию удалось просочиться и нам, бойцам Linkmeup.
Но просто так тратить целый день на созерцание серверных полей — занятие скучное, поэтому на этот раз поездка была более тематической. Четыре дата-центра, каждый был создан для решения определённых задач, нацелен на определённую аудиторию клиентов и наделён своими специфическими инженерными решениями.
Предыдущие заезды были организованы в формате “Блеск и нищета дата-центров Санкт-Петербурга” и показывали всё: от самых треш дата-центров до “лакшери” сегмента. Но пока от этого формата решили отказаться, ибо слишком быстро и поверхностно.
Data Center Expedition PRO ставит перед собой задачу за один день показать рынок дата-центров города так, как знают его не многие. Поэтому было принято решение, что лучше меньше, но лучше.
А во время перегонов экскурсантов развлекает увлекательными рассказами заслуженный и легендарный связист Санкт-Петербурга Дмитрий Петров, по совместительству директор “Комфортел”.
Давайте в начале сразу договоримся, что такое дата-центр, дабы говорить на одном языке. Так вот, ЦОД — это не помещение где стойки стоят, а инженерный объект, в котором созданы условия для бесперебойной подачи электроэнергии заданного качества, как минимум два ввода питания, набор ИБП и дизельгенератор с автозапуском. Также обеспечивается строгий температурный режим и есть система пожаротушения, срабатывание которой не приводит к остановке работы размещённого оборудования. И совсем хорошо, когда на входе сидит бдительный охранник серверного спокойствия, а в мониторинговой круглосуточно находятся, как минимум, два инженера и энергетик.
Выбор варианта реализации этих требований лежит исключительно на плечах владельца и зависит от целей, которые они перед собой поставили на этапе проектирования.
Все ЦОДы в обзоре заявляются как Tier 3, но есть нюанс — в Питере нет ни одного сертифицированного Tier 3 ДЦ. Совсем нет. Как только просишь показать сертификат — все уходят в несознанку, что-то бормоча про дороговизну сертификации, пустые формальности, но полное соответствие требованиям. То есть они как-бы и готовы, но нет.
И последнее: площади, мощности и прочие увлекательные цифры, это очень важно и интересно, но их можно в любой момент посмотреть на сайте, так что в этой статье будут просто личные впечатления от каждого объекта, с определённой претензией на объективность.
Так что не всё то дата-центр, что назвали дата-центром и не всё то дата-центр, где написали Tier 3.
Итак, первым на нашем пути был ЦОД Linxdatacenter. Представительство заслуженной голландской компании Linxtelecom с ЦОДами и каналами связи по всему миру. На открытие ЦОДа приезжал аж сам премьер-министр Голландии. Утверждают, что работают без сбоев с момента открытия, т.е. уже 5 лет. Известны тем, что пришли на рынок ЦОДов когда ещё никто в стране не знал, что это такое.
Из интересных технических решений: своя газопоршневая подстанция и, как следствие, независимость от городского электричества. Естественно есть резервный ввод от города, аккумуляторы на подхвате и дизеля на случай перебоев с газом. Охлаждают фрикулингом. Разместить готовы 1000 стоек.
Приз за самое красивое здание, однозначно, у Linxdatacenter
ЦОД построен внутри здания технопарка Sky Trade, т.е. офисы есть справа, слева, снизу и вообще везде. Но linx отгородился от всех толстенными стенами. Кстати вход в технопарк по неведомой причине расположен ровно с противоположной стороны от въезда, т.е. как бы сзади здания.
Главное впечатление: дорого, богато и очень корпоративно. Он действительно большой, красивый, работает только с юрлицами и оценивает свои услуги в евро. Хотя кризис не щадит никого и цены были снижены, но всё равно остаются выше средних по рынку.
Ещё одна особенность — удалённость. Чисто технически это город, хоть и самая его окраина. Причём промзона, окружённая жилыми массивами, а это пробки каждое утро и вечер. Но крупных дата-центров, которые могут принять действительно большого клиента, в городе всего два. Это Linx и SDN, причём оба находятся на севере, только SDN расположился прямо на КАД. Одним словом, выбирать особенно не приходится.
Статус заведения здесь поддерживают с порога: вас встретят красивые девушки, именуемые тут коммерческими представителями, отведут в отличную переговорку, напоят вкусным кофе и покормят отличными печеньками. Пока мы были заняты едой, девушки организовали обзорную презентацию на тему где и сколько ЦОДов уже построено, какие между ними каналы связи, где есть точки для подключения и прочие маркетинговые штуки с завышенными цифрами. Сеть действительно большая, и точек присутствия очень много. Если у вас бизнес на несколько стран — вам сюда.
Не забыли список самых именитых клиентов. Список весьма солидный. Я думаю, что 90% компаний знакомы любому обывателю в том или ином виде.
Когда не дают снимать технику, приходится снимать печеньки
Перед тем, как передать нас в мужественные руки своих коллег для дальнейшей экскурсии, нам вручили стандартный пакетик рекламных листовок и по милой маленькой флешке. И тут я призадумался: целесообразно ли в 2016 году в ЦОДе, который активно продвигает облачные услуги, тратить маркетинговый бюджет на флешки? Если бумажки хотя бы теоретически могут сыграть, то воспользуюсь ли я этой флешкой хоть раз, и, вообще, где она сейчас?
Но это всё лирика. А мы прощаемся с девушками и направляемся в глубину ЦОДа. Но тут случается неприятность — снимать внутри, даже общие планы, нам запретили. Настолько тщательно берегут тайны своих клиентов. А жаль, ибо внутри обнаружилось оборудование которое далеко не каждый инженер вблизи видел, даже если регулярно посещает профильные выставки.
За этой вертушкой находится всё самое интересное, но с камерой туда нельзя
Вообще, к тайнам своих клиентов тут относятся очень щепетильно! При необходимости есть возможность отгородиться не просто стандартными решётками с замком, а глухим забором в потолок, забором под фальшполом, биометрическими датчиками на входе, запретом на проход для всех, кроме своих инженеров, которые посажены здесь же в отдельном помещении и наблюдают за всем по изолированной сети видеонаблюдения. Не хватает только минных полей и пулемётных вышек. Но если серьёзно, такой подход внушает неподдельное уважение. Я думаю, что для финансового сектора и просто крупного энтерпрайза возможность такой круговой обороны может стать решающим фактором.
В кроссовой комнате ждал сюрприз: уборкой здесь занимается робот-пылесос. Решили, что швабра уборщицы несёт неоправданно высокий риск по сравнению с роботом от Karcher. Хотя сама кроссировочная выглядит уныло: непростительно мало операторов.
Ещё один заслуженный игрок рынка дата-центров Санкт-Петербурга, запущенный немного раньше чем Linxdatacenter. Располагается рядом с центром города, состоит из двух частей. Первая часть представляет из себя классический ЦОД, и мы не будем на нём долго останавливаться.
Вторая часть — это модульный ЦОД, он активно строится, и относительно недавно был введён в эксплуатацию первый модуль.
ЦОД активно играет как на своём местоположении, так и на своей истории. К слову сказать, количество операторов связи тут в 4 раза больше, чем в Linxdatacenter, и даже чисто визуально помещение узла связи выглядит крайне солидно. Операторы такому положению дел рады, поэтому не стесняются ставить мощное железо уровня ядра и агрегации. В наличии даже магистральный узел, и заведено множество кабелей разными маршрутами, т.е. можно смело утверждать, что с самого начала Миран ориентировался на дружбу с операторами, и явно не прогадал. Для многих текущих клиентов именно возможность подключения к разнообразным оператором стала самым важным аргументом в выборе места размещения.
Классическое разделение на горячий/холодный коридор. Везде светло и чистенько
Отдельно хочется сказать про безопасность. Сами Мирановцы шутят, что главный столп их безопасности — это сложность найти ЦОД. Их здание настолько хитро спрятано в закоулках промзоны времён царской России, что пока не знаешь куда идти, лучше и не заходить. Судите сами:
— Заходим в неприметную арку,
— Проходим через ангар построенный в околовоенное время,
— Проходим мимо здания первой мебельной фабрики в России (именно фабрики, а не простой мануфактуры),
— Продолжаем идти мимо мастерских Людвига Нобеля (брат учредителя той самой премии, знаменитейший инженер и фактически основатель индустрии нефтедобычи в России)
— За углом спотыкаемся о здоровенный дизель.
Угадайте, чей? Кстати, почему он стоит на колёсах — если его снять с рамы и поставить на землю, то необходимо будет провести дополнительные регистрационные и согласовательные работы, что никому не нужно. Поэтому как привезли, так в той позе и зафиксировали.
И пока растираем ушибленное колено, случайно замечаем скромную табличку где-то на уровне крыши.
Но вернёмся к структуре этого ЦОД. Фактически это два разных дата-центра, находящихся в одном месте и в одних руках. Первый представляет из себя ЦОД классической судьбы и конструкции: берём здание, конструктивно усиливаем и перестраиваем в ЦОД с фреоновой системой охлаждения. Хотя на экскурсии было заявлено использование фрикулинга со всеми вытекающими.
Вторая-же часть намного интересней: создаётся она по прогрессивной модульной технологии. На месте это значит, что в огромном заводском ангаре ставят специально сконструированные контейнеры-модули, каждый из которых занимается своим делом. В одних находятся стойки, в других охлаждение и т.п. В данный момент полностью запущен только один модуль, активно монтируется второй, а всего их должно быть четыре. Вся разработка от и до заказная.
Беспредел операторских стоек. Но с ним явно борятся — раньше было намного хуже
Модули представляют из себя специально сваренные двухэтажные контейнеры, похожие на стандартные морские. На первом этаже расположены стойки, блоки кондиционеров и система пожаротушения, на втором — энергоблок, ИБП и прочее. Всем управляет хитрая автоматика, которая, например, умеет подавать холодный воздух в конкретные точки нагрева, а не просто усиливая воздушный поток во всём модуле.
Ангар, в котором они находятся, естественно прошел специальную подготовку. Были проведены общеремонтные работы, под потолком были установлены мощные вытяжные вентиляторы и пассивные фильтры грубой очистки, которые регулярно меняются. Таким образом, воздух в помещение попадает относительно чистый и на входе в систему фрикулинга проходит только тонкую очистку. Утверждается, что такое модульное решение является уникальным для Санкт-Петербурга.
Вот тут уже навели порядок и активно его поддерживают
Кстати, экскурсию тут водят не эффективные продавцы, а вполне себе инженеры. Возможно поэтому Миран оставляет впечатление тёплого, лампового и какого-то домашнего заведения.
Также Миран известен тем, что однажды, после пятилетнего аптайма, лёг полностью, от слова совсем, на бесконечные 30 минут. Но, как известно, не бывает плохого пиара, и то, как руководство дата-центра повело себя в этой печальной ситуации, принесло им репутацию партнёров, готовых нести полную ответственность за свои косяки, а не пытающихся как-то от неё улизнуть.
Модульный дата-центр. Дальний модуль уже работает, ближний в пусконаладке
Предугадывая вопрос: что точно случилось, я сказать не могу, т.к. свечку не держал, но в народе ходит история такого содержания:
Вводился в строй новый ИБП. Его уже подключили к вводам, всё проверили и готовились добавить в управляющий софт. Из-за наличия физического подключения к системе управления и отсутствия оного на логическом уровне, мониторинг периодически сыпал разными скучными алертами, и главный инженер, выдав ЦУ дежурной смене, отбыл домой с лёгким сердцем, полный идей завтра пустить ИБП в бой. Суть выданных ЦУ была такова: если прилетает определённый алерт, то надо идти туда-то, найти ИБП такой-то, зайти в определённое меню и нажать сброс ошибки. Ну а дальше, само-собой, случается человеческий фактор — инженер, пришедший сбрасывать ошибку, промахивается кнопкой и жмёт Load off, т.е. сбросить нагрузку. И всё бы ничего, т.к. в ИБП не подключена нагрузка и можно жать что угодно, но в дело вступил его величество случай. Когда ИБП подключен физически, но не подключен логически, в системе всплыла страшная, но простая как три копейки бага — Load off пришёл на все ИБП. В этот момент фактически инженер собственноручно выключил весь ЦОД.
Вытяжные вентиляторы, в человеческий рост размером, под крышей ангара и электрокабели толщиной в руку
Но дальше больше! Дрожащими руками он набирает главного инженера, описывает ситуацию, и тот принимает вроде бы правильное решение на основе имеющейся информации: напряжения нет, дизель не завёлся, значит, ИБП не отработали и надо руками отключать ввода и запускать дизель. Инженер бежит в ГРЩ, отрубает вводы и произносит главную фразу вечера: “Ой, а теперь и свет пропал”, на что получает резонный вопрос “А он что ли был? Ты же сказал нет совсем ничего!” и пачку слов вдогонку про умение описывать ситуацию. Несчастного инженера в предынфарктном состоянии отправили успокаиваться и только потом продолжили разбираться, что есть, чего нет и как всё включить обратно. Вот так сочетание фактора случайности и человеческой ошибки стоили получасового простоя.
Внутри модуля всё очень по-спартански и функционально
После вкусного обеда, мы поехали в дата-центр IMAQLIQ. Данный ЦОД обладает самой странной историей появления и развития при том, что по возрасту он не уступает предыдущим двум.
За всё время существования он был известен как Арроба, КубиоРус, IQdata, General Datacomm, и только относительно недавно остановились на текущем варианте IMAQLIQ.
Скромненько, весьма скромненько...
Началось всё с компании General Datacomm, которая занимается разработкой сетевого оборудования. Особенно налегали на радиорелейки для сотовых операторов. Затем они купили оператора Кубио, который пытался выдавать себя за финского, что в Санкт-Петербурге особенно выгодно, т.к. вся связь в Европу идет через Финляндию.
Вся инженерия здесь сделана как-то очень красиво и с душой
Вот так компания занимающаяся созданием оборудования для телекомов, довольно неожиданно для всех вошла на рынок этих самых телекомов. И чтобы совсем всех удивить, они ещё и дата-центр решили построить, который поочередно был назван всеми именами.
Географически сборочные цеха General Datacomm находятся на территории завода турбинных лопаток. А что значит располагаться на территории бывшего советского завода? Правильно! Огромная территория и практически безлимитное электричество. Поэтому ЦОД построен под одной крышей со складом и сказать, что там стало меньше места, это просто нагло соврать. Раньше строить умели от души и в масштабах себя не сдерживали.
Свободного места внутри — хоть в футбол играй
Но вернёмся к истории дата-центра. Сильного толчка в развитии он не получил, и, видимо, виной этому второстепенность данного бизнес направления для создателей материнской компании. Поэтому его развитие до недавнего времени происходило крайне нелинейно и урывками. Но сейчас, пройдя путь от просто большой серверной до законченного инженерного объекта, этот ЦОД явно начинает набирать обороты.
На местах это значит следующее: дата-центр сейчас стоит практически пустой, и идёт активная фаза поиска клиентов, а это значит более чем вменяемые цены и готовность идти на уступки, на которые в других местах никогда не согласятся. Все основные операторы уже зашли, поэтому со связью нет никаких проблем.
Приз зрительских симпатий, за ГРЩ с самыми классными видами вручается IMAQLIQ
Приятно удивили отношением к резервированию электричества. У местных инженеров главный принцип: гарантированное питание, это то, которое мы выдаем с ИБП и дизеля, а всё остальное это резерв. На практике это означает наличие ГРЩ с весьма солидными шкафами и стеллажи аккумуляторов. Так же ребята сами предложили завести дизель, что бы показать выход на рабочий режим за 15 секунд. Пока шли к дизелю, рассказали как проверяют поставщиков топлива — просто звонят им в самый неудобный момент времени и спрашивают когда те смогут привезти нужный объём топлива. Если ответ не устраивает (а бывает так, что и просто никто не отвечает), то с этим поставщиком больше не работают.
Потихоньку клиенты заполняют площади
Однозначно самая необычная из посещённых площадок. Но чтобы рассказ про неё был понятен, необходимо отойти в сторону и обратиться к историческому месту интернет силы Петербурга — Большой Морской 18.
БМ18 — расположенная в университете промышленных технологий и дизайна, исторически сложившаяся крупнейшая точка обмена трафиком в городе. Только операторов тут что-то около 120, а количество кабелей, волокон и возможностей по организации связи так и вовсе запредельное. В основном это случилось из-за географического положения — самый центральный центр города. Прямо напротив арки главного штаба, в двух минутах ходьбы от Зимнего Дворца и т.д. Но помимо своей очевидной огромной значимости для местных телекомов, она также известна регулярностью возникающих проблем разного уровня адекватности. Среди самых известных — потоп сверху, потом потоп снизу, не забываем про пожар и несчастного электрика, который за отключенную порнуху вырубил связь в половине города, и т.д. Основная причина – БМ18 расположена в федеральном университете, поэтому особенно вкладываться в инфраструктуру не своего здания, естественно, никто не хочет, и отсюда многочисленные косяки. Многих это раздражает, но деваться особенно некуда, и операторы продолжают там сидеть.
Большой, если так можно сказать, машзал
Но если есть спрос, то будет и предложение. Под этим девизом и был организован дата-центр БончАйти. Но напоминаю: это всё ещё центр города, это старые дома, это толпы туристов и прочие вещи, которые ну никак не соотносятся с таким понятием как ЦОД.
Итак, первое, на что обращаешь внимание, это размер. После посещённых объектов, он кажется просто крохой. Большой зал — 25 стоек, малый всего на 8. Но тут на сцену выпрыгивает главная идея организации этого ЦОД’а — быть максимально привлекательным для операторов и дать максимально близкий доступ до широких каналов связи генераторам тяжелого трафика. Для примера, сейчас в БончАйти стоят сервера главного городского новостного сайта fontanka.ru После публикации обсуждаемых новостей их исходящий трафик подскакивает до 4 Gb/s, и наличие операторов в непосредственной близости от серверов значительно упрощает и их жизнь, и жизнь самих операторов. Реализовано это с помощью мультипровайдера: на один маршрутизатор заведены несколько операторов связи и непосредственно генератор трафика. Суммарная ёмкость каналов получается 27 Gb/s.
У связистов есть поверье — интернет самоудалится, если в мире не останется операторских шкафов без бороды. Поэтому каждый связист спасает интернет от этой напасти как может
Но как мы понимаем, таких генераторов трафика не особо много, поэтому машзалы огромных размеров им и не нужны. С другой стороны, операторам для организации пиринга и кроссировок также нет нужны держать гору активного оборудования, а патч панели электричества и холода не требуют. Хотя руководство заверило, что и обычные сервера принимают на постой с удовольствием, благо цены вполне демократичные. Но принимать больших корпоративных клиентов, которые привозят много тяжелого железа, которое кушает много электричества и выделяет много тепла, они не готовы.
Далее. Дата-центр находится на первом этаже обычного нежилого дома, а значит как-то надо извернуться с резервным питанием и решить проблему охлаждения.
Кто-то не умеет ровно вешать оборудование
С охлаждением всё более-менее понятно: прецизионные кондиционеры, скромный выносной модуль и фальшпол делают своё дело. Кстати и сам дом помогает — эта часть здания всегда в тени, так что окружающий воздух сам по себе всегда прохладный.
А вот с резервным питанием тут интересно вышло. Ясное дело, что никто в здравом уме, никогда не разрешит установку дизельного генератора во дворе дома, а значит надо как-то изворачиваться.
Выход был найден презабавнейший: неподалёку, на другой площадке, стоит готовый на всё генератор, который в случае аварии быстро привозят и подключают в цепь питания через соединитель на улице. Возникает резонный вопрос — а как же пробки? Это же центр города, тут же всё всегда стоит! Но ребята утверждают, что всё проверили боем, во время самых жутких пробок и готовы чуть ли не на руках его затаскивать. По факту, гарантированное время доставки 40 минут. Кажется, что не мало. Но ИБП рассчитан на поддержание работы в течение часа, и его мощности будут наращиваться по мере заполнения залов оборудованием. Очень интересное решение, как мне кажется.
А потом мы пошли кататься на кораблике, где нас ждало вкуснейшее немецкое пиво, правильная пивная еда и экскурсоводы из всех посещённых дата-центров. Беседы были уже более предметные, т.к. появились впечатления от разных площадок и можно было аргументированно сравнивать их между собой.
Представителям дата-центров тоже интересно узнать, какое впечатление они производят по сравнению с коллегами и насколько отвечают запросам той аудитории для которой себя позиционируют. И опять же — понять, что надо клиентам.
Да и просто живое общение никто не отменял. Возможно, я не слышал, но никто никому ничего не пытался продать в тот вечер.
В общем, запомните: любое мероприятие в Питере должно заканчиваться на кораблике. Это аксиома. Но если вам нужны доказательства, вот вам главное — с корабля не сбежать.
Данное мероприятие оставляет после себя исключительно положительные эмоции. Абсолютно нет ощущения потерянного дня, как это зачастую бывает после маркетинговых поездок. Полезные для бизнеса контакты, новые знакомства и приятное ощущение новых знаний. Хотя, возможно, во всём виноват кораблик и пенные напитки, которые, как известно, способствуют беседам.
Поставленная цель — показать рынок ЦОДов — выполнена на все 100%. Конечно рынок намного больше, чем 4 дата-центра, но когда ты воочию ощущаешь разницу между, казалось бы, одинаковыми местами, принять правильное решение становится намного легче.
За себя хочу сказать, что теперь аргументированно могу посоветовать с выбором площадки в зависимости от поставленной задачи. Как минимум, в пределах увиденных за этот день. Раньше все рекомендации могли происходить по принципу: ну вот про этих говорят, что они не плохи и по деньгам неплохо, и аптайм вроде есть. Но не должен настоящий инженер в своих словах использовать слова “вроде” и “кажется”.
Что хочется выделить отдельной строкой — формат такого мероприятия это готовый корпоратив с минимальным бюджетом. Уверен, что миллион и тысяча офисных айтишников с превеликим удовольствием бы повторили этот путь, не забывая часть про обед и прогулку на кораблике. Осталось договориться с ЦОДами. Хотя многие и так приглашают на экскурсию, но один ЦОД без возможности сравнения это довольно скучно.
Но просто так тратить целый день на созерцание серверных полей — занятие скучное, поэтому на этот раз поездка была более тематической. Четыре дата-центра, каждый был создан для решения определённых задач, нацелен на определённую аудиторию клиентов и наделён своими специфическими инженерными решениями.
Предыдущие заезды были организованы в формате “Блеск и нищета дата-центров Санкт-Петербурга” и показывали всё: от самых треш дата-центров до “лакшери” сегмента. Но пока от этого формата решили отказаться, ибо слишком быстро и поверхностно.
Data Center Expedition PRO ставит перед собой задачу за один день показать рынок дата-центров города так, как знают его не многие. Поэтому было принято решение, что лучше меньше, но лучше.
А во время перегонов экскурсантов развлекает увлекательными рассказами заслуженный и легендарный связист Санкт-Петербурга Дмитрий Петров, по совместительству директор “Комфортел”.
Немного общих слов
Давайте в начале сразу договоримся, что такое дата-центр, дабы говорить на одном языке. Так вот, ЦОД — это не помещение где стойки стоят, а инженерный объект, в котором созданы условия для бесперебойной подачи электроэнергии заданного качества, как минимум два ввода питания, набор ИБП и дизельгенератор с автозапуском. Также обеспечивается строгий температурный режим и есть система пожаротушения, срабатывание которой не приводит к остановке работы размещённого оборудования. И совсем хорошо, когда на входе сидит бдительный охранник серверного спокойствия, а в мониторинговой круглосуточно находятся, как минимум, два инженера и энергетик.
Выбор варианта реализации этих требований лежит исключительно на плечах владельца и зависит от целей, которые они перед собой поставили на этапе проектирования.
Все ЦОДы в обзоре заявляются как Tier 3, но есть нюанс — в Питере нет ни одного сертифицированного Tier 3 ДЦ. Совсем нет. Как только просишь показать сертификат — все уходят в несознанку, что-то бормоча про дороговизну сертификации, пустые формальности, но полное соответствие требованиям. То есть они как-бы и готовы, но нет.
И последнее: площади, мощности и прочие увлекательные цифры, это очень важно и интересно, но их можно в любой момент посмотреть на сайте, так что в этой статье будут просто личные впечатления от каждого объекта, с определённой претензией на объективность.
Так что не всё то дата-центр, что назвали дата-центром и не всё то дата-центр, где написали Tier 3.
Linxdatacenter
Итак, первым на нашем пути был ЦОД Linxdatacenter. Представительство заслуженной голландской компании Linxtelecom с ЦОДами и каналами связи по всему миру. На открытие ЦОДа приезжал аж сам премьер-министр Голландии. Утверждают, что работают без сбоев с момента открытия, т.е. уже 5 лет. Известны тем, что пришли на рынок ЦОДов когда ещё никто в стране не знал, что это такое.
Из интересных технических решений: своя газопоршневая подстанция и, как следствие, независимость от городского электричества. Естественно есть резервный ввод от города, аккумуляторы на подхвате и дизеля на случай перебоев с газом. Охлаждают фрикулингом. Разместить готовы 1000 стоек.
Приз за самое красивое здание, однозначно, у Linxdatacenter
ЦОД построен внутри здания технопарка Sky Trade, т.е. офисы есть справа, слева, снизу и вообще везде. Но linx отгородился от всех толстенными стенами. Кстати вход в технопарк по неведомой причине расположен ровно с противоположной стороны от въезда, т.е. как бы сзади здания.
Главное впечатление: дорого, богато и очень корпоративно. Он действительно большой, красивый, работает только с юрлицами и оценивает свои услуги в евро. Хотя кризис не щадит никого и цены были снижены, но всё равно остаются выше средних по рынку.
Ещё одна особенность — удалённость. Чисто технически это город, хоть и самая его окраина. Причём промзона, окружённая жилыми массивами, а это пробки каждое утро и вечер. Но крупных дата-центров, которые могут принять действительно большого клиента, в городе всего два. Это Linx и SDN, причём оба находятся на севере, только SDN расположился прямо на КАД. Одним словом, выбирать особенно не приходится.
Статус заведения здесь поддерживают с порога: вас встретят красивые девушки, именуемые тут коммерческими представителями, отведут в отличную переговорку, напоят вкусным кофе и покормят отличными печеньками. Пока мы были заняты едой, девушки организовали обзорную презентацию на тему где и сколько ЦОДов уже построено, какие между ними каналы связи, где есть точки для подключения и прочие маркетинговые штуки с завышенными цифрами. Сеть действительно большая, и точек присутствия очень много. Если у вас бизнес на несколько стран — вам сюда.
Не забыли список самых именитых клиентов. Список весьма солидный. Я думаю, что 90% компаний знакомы любому обывателю в том или ином виде.
Когда не дают снимать технику, приходится снимать печеньки
Перед тем, как передать нас в мужественные руки своих коллег для дальнейшей экскурсии, нам вручили стандартный пакетик рекламных листовок и по милой маленькой флешке. И тут я призадумался: целесообразно ли в 2016 году в ЦОДе, который активно продвигает облачные услуги, тратить маркетинговый бюджет на флешки? Если бумажки хотя бы теоретически могут сыграть, то воспользуюсь ли я этой флешкой хоть раз, и, вообще, где она сейчас?
Но это всё лирика. А мы прощаемся с девушками и направляемся в глубину ЦОДа. Но тут случается неприятность — снимать внутри, даже общие планы, нам запретили. Настолько тщательно берегут тайны своих клиентов. А жаль, ибо внутри обнаружилось оборудование которое далеко не каждый инженер вблизи видел, даже если регулярно посещает профильные выставки.
За этой вертушкой находится всё самое интересное, но с камерой туда нельзя
Вообще, к тайнам своих клиентов тут относятся очень щепетильно! При необходимости есть возможность отгородиться не просто стандартными решётками с замком, а глухим забором в потолок, забором под фальшполом, биометрическими датчиками на входе, запретом на проход для всех, кроме своих инженеров, которые посажены здесь же в отдельном помещении и наблюдают за всем по изолированной сети видеонаблюдения. Не хватает только минных полей и пулемётных вышек. Но если серьёзно, такой подход внушает неподдельное уважение. Я думаю, что для финансового сектора и просто крупного энтерпрайза возможность такой круговой обороны может стать решающим фактором.
В кроссовой комнате ждал сюрприз: уборкой здесь занимается робот-пылесос. Решили, что швабра уборщицы несёт неоправданно высокий риск по сравнению с роботом от Karcher. Хотя сама кроссировочная выглядит уныло: непростительно мало операторов.
В качестве вывода:
Linxdatacenter у меня ассоциируется с дорогим рестораном. Формализовано и регламентировано всё, от начала до конца, без права на ошибку. Ты идёшь сюда, когда точно знаешь, что хочешь, ты всегда уверен в результате на выходе, никогда не побоишься прийти сюда с бизнес-партнёрами, и поэтому ты готов платить за всё вышеперечисленное. Но если тебе вдруг приспичит съесть простых макарон с маслом, то сколько ни валяйся в ногах у официантки, тебе никто варить их не будет, т.к. у них стандарты, правила, контролирующие инстанции, адовая бюрократия и вообще не дай бог кто увидит как их повар француз варит щебекинские макароны вместо фузилли или хотя бы зитти. Но кризис есть кризис, и простые макарошки становятся всё ближе и доступней.Миран
Ещё один заслуженный игрок рынка дата-центров Санкт-Петербурга, запущенный немного раньше чем Linxdatacenter. Располагается рядом с центром города, состоит из двух частей. Первая часть представляет из себя классический ЦОД, и мы не будем на нём долго останавливаться.
Вторая часть — это модульный ЦОД, он активно строится, и относительно недавно был введён в эксплуатацию первый модуль.
ЦОД активно играет как на своём местоположении, так и на своей истории. К слову сказать, количество операторов связи тут в 4 раза больше, чем в Linxdatacenter, и даже чисто визуально помещение узла связи выглядит крайне солидно. Операторы такому положению дел рады, поэтому не стесняются ставить мощное железо уровня ядра и агрегации. В наличии даже магистральный узел, и заведено множество кабелей разными маршрутами, т.е. можно смело утверждать, что с самого начала Миран ориентировался на дружбу с операторами, и явно не прогадал. Для многих текущих клиентов именно возможность подключения к разнообразным оператором стала самым важным аргументом в выборе места размещения.
Классическое разделение на горячий/холодный коридор. Везде светло и чистенько
Отдельно хочется сказать про безопасность. Сами Мирановцы шутят, что главный столп их безопасности — это сложность найти ЦОД. Их здание настолько хитро спрятано в закоулках промзоны времён царской России, что пока не знаешь куда идти, лучше и не заходить. Судите сами:
— Заходим в неприметную арку,
— Проходим через ангар построенный в околовоенное время,
— Проходим мимо здания первой мебельной фабрики в России (именно фабрики, а не простой мануфактуры),
— Продолжаем идти мимо мастерских Людвига Нобеля (брат учредителя той самой премии, знаменитейший инженер и фактически основатель индустрии нефтедобычи в России)
— За углом спотыкаемся о здоровенный дизель.
Угадайте, чей? Кстати, почему он стоит на колёсах — если его снять с рамы и поставить на землю, то необходимо будет провести дополнительные регистрационные и согласовательные работы, что никому не нужно. Поэтому как привезли, так в той позе и зафиксировали.
И пока растираем ушибленное колено, случайно замечаем скромную табличку где-то на уровне крыши.
Но вернёмся к структуре этого ЦОД. Фактически это два разных дата-центра, находящихся в одном месте и в одних руках. Первый представляет из себя ЦОД классической судьбы и конструкции: берём здание, конструктивно усиливаем и перестраиваем в ЦОД с фреоновой системой охлаждения. Хотя на экскурсии было заявлено использование фрикулинга со всеми вытекающими.
Вторая-же часть намного интересней: создаётся она по прогрессивной модульной технологии. На месте это значит, что в огромном заводском ангаре ставят специально сконструированные контейнеры-модули, каждый из которых занимается своим делом. В одних находятся стойки, в других охлаждение и т.п. В данный момент полностью запущен только один модуль, активно монтируется второй, а всего их должно быть четыре. Вся разработка от и до заказная.
Беспредел операторских стоек. Но с ним явно борятся — раньше было намного хуже
Модули представляют из себя специально сваренные двухэтажные контейнеры, похожие на стандартные морские. На первом этаже расположены стойки, блоки кондиционеров и система пожаротушения, на втором — энергоблок, ИБП и прочее. Всем управляет хитрая автоматика, которая, например, умеет подавать холодный воздух в конкретные точки нагрева, а не просто усиливая воздушный поток во всём модуле.
Ангар, в котором они находятся, естественно прошел специальную подготовку. Были проведены общеремонтные работы, под потолком были установлены мощные вытяжные вентиляторы и пассивные фильтры грубой очистки, которые регулярно меняются. Таким образом, воздух в помещение попадает относительно чистый и на входе в систему фрикулинга проходит только тонкую очистку. Утверждается, что такое модульное решение является уникальным для Санкт-Петербурга.
Вот тут уже навели порядок и активно его поддерживают
Кстати, экскурсию тут водят не эффективные продавцы, а вполне себе инженеры. Возможно поэтому Миран оставляет впечатление тёплого, лампового и какого-то домашнего заведения.
Также Миран известен тем, что однажды, после пятилетнего аптайма, лёг полностью, от слова совсем, на бесконечные 30 минут. Но, как известно, не бывает плохого пиара, и то, как руководство дата-центра повело себя в этой печальной ситуации, принесло им репутацию партнёров, готовых нести полную ответственность за свои косяки, а не пытающихся как-то от неё улизнуть.
Модульный дата-центр. Дальний модуль уже работает, ближний в пусконаладке
Предугадывая вопрос: что точно случилось, я сказать не могу, т.к. свечку не держал, но в народе ходит история такого содержания:
Вводился в строй новый ИБП. Его уже подключили к вводам, всё проверили и готовились добавить в управляющий софт. Из-за наличия физического подключения к системе управления и отсутствия оного на логическом уровне, мониторинг периодически сыпал разными скучными алертами, и главный инженер, выдав ЦУ дежурной смене, отбыл домой с лёгким сердцем, полный идей завтра пустить ИБП в бой. Суть выданных ЦУ была такова: если прилетает определённый алерт, то надо идти туда-то, найти ИБП такой-то, зайти в определённое меню и нажать сброс ошибки. Ну а дальше, само-собой, случается человеческий фактор — инженер, пришедший сбрасывать ошибку, промахивается кнопкой и жмёт Load off, т.е. сбросить нагрузку. И всё бы ничего, т.к. в ИБП не подключена нагрузка и можно жать что угодно, но в дело вступил его величество случай. Когда ИБП подключен физически, но не подключен логически, в системе всплыла страшная, но простая как три копейки бага — Load off пришёл на все ИБП. В этот момент фактически инженер собственноручно выключил весь ЦОД.
Вытяжные вентиляторы, в человеческий рост размером, под крышей ангара и электрокабели толщиной в руку
Но дальше больше! Дрожащими руками он набирает главного инженера, описывает ситуацию, и тот принимает вроде бы правильное решение на основе имеющейся информации: напряжения нет, дизель не завёлся, значит, ИБП не отработали и надо руками отключать ввода и запускать дизель. Инженер бежит в ГРЩ, отрубает вводы и произносит главную фразу вечера: “Ой, а теперь и свет пропал”, на что получает резонный вопрос “А он что ли был? Ты же сказал нет совсем ничего!” и пачку слов вдогонку про умение описывать ситуацию. Несчастного инженера в предынфарктном состоянии отправили успокаиваться и только потом продолжили разбираться, что есть, чего нет и как всё включить обратно. Вот так сочетание фактора случайности и человеческой ошибки стоили получасового простоя.
Внутри модуля всё очень по-спартански и функционально
В качестве вывода:
На мой взгляд, инженерно и функционально, Миран очень достойное место. Добавляя сюда экономическую составляющую, получаем хороший вариант по соотношению цена-качество. Но если вам также важен внешний вид и нет никакого желания рыскать по старым цехам и действующим производствам, то, увы, вам точно не сюда. С другой стороны, если вы готовы поверить множеству положительных отзывов о, возможно, самом известном дата-центре города, то вам однозначно сюда.IMAQLIQ
После вкусного обеда, мы поехали в дата-центр IMAQLIQ. Данный ЦОД обладает самой странной историей появления и развития при том, что по возрасту он не уступает предыдущим двум.
За всё время существования он был известен как Арроба, КубиоРус, IQdata, General Datacomm, и только относительно недавно остановились на текущем варианте IMAQLIQ.
Скромненько, весьма скромненько...
Началось всё с компании General Datacomm, которая занимается разработкой сетевого оборудования. Особенно налегали на радиорелейки для сотовых операторов. Затем они купили оператора Кубио, который пытался выдавать себя за финского, что в Санкт-Петербурге особенно выгодно, т.к. вся связь в Европу идет через Финляндию.
Вся инженерия здесь сделана как-то очень красиво и с душой
Вот так компания занимающаяся созданием оборудования для телекомов, довольно неожиданно для всех вошла на рынок этих самых телекомов. И чтобы совсем всех удивить, они ещё и дата-центр решили построить, который поочередно был назван всеми именами.
Географически сборочные цеха General Datacomm находятся на территории завода турбинных лопаток. А что значит располагаться на территории бывшего советского завода? Правильно! Огромная территория и практически безлимитное электричество. Поэтому ЦОД построен под одной крышей со складом и сказать, что там стало меньше места, это просто нагло соврать. Раньше строить умели от души и в масштабах себя не сдерживали.
Свободного места внутри — хоть в футбол играй
Но вернёмся к истории дата-центра. Сильного толчка в развитии он не получил, и, видимо, виной этому второстепенность данного бизнес направления для создателей материнской компании. Поэтому его развитие до недавнего времени происходило крайне нелинейно и урывками. Но сейчас, пройдя путь от просто большой серверной до законченного инженерного объекта, этот ЦОД явно начинает набирать обороты.
На местах это значит следующее: дата-центр сейчас стоит практически пустой, и идёт активная фаза поиска клиентов, а это значит более чем вменяемые цены и готовность идти на уступки, на которые в других местах никогда не согласятся. Все основные операторы уже зашли, поэтому со связью нет никаких проблем.
Приз зрительских симпатий, за ГРЩ с самыми классными видами вручается IMAQLIQ
Приятно удивили отношением к резервированию электричества. У местных инженеров главный принцип: гарантированное питание, это то, которое мы выдаем с ИБП и дизеля, а всё остальное это резерв. На практике это означает наличие ГРЩ с весьма солидными шкафами и стеллажи аккумуляторов. Так же ребята сами предложили завести дизель, что бы показать выход на рабочий режим за 15 секунд. Пока шли к дизелю, рассказали как проверяют поставщиков топлива — просто звонят им в самый неудобный момент времени и спрашивают когда те смогут привезти нужный объём топлива. Если ответ не устраивает (а бывает так, что и просто никто не отвечает), то с этим поставщиком больше не работают.
Потихоньку клиенты заполняют площади
В качестве вывода:
Данный ЦОД, в том виде как он есть сейчас, я для себя называю ЦОД для хранения бекапов, т.е. место куда уже можно и приезжать, но как-то пока страшновато быть первым, кто серьёзное оборудование привезёт, ибо место новое и всех юношеских проблем не пережившее. А вот притащить сюда ерундовину записывать бекапы на ленточки или какой другой архивный сервер, который вроде как и нужен, но по сути просто место в стойках занимает — милое дело. Обычно в любой средней руки фирме находится нечто подобное, не очень важное и что хочется убрать на удалённую площадку. Но видно, что ребята активно развиваются, работают и планы по развитию у них грандиозные, так что спешите видеть. Все задатки стать серьёзным игроком на рынке дата-центров у них есть. Посмотрим, что покажет время.БончАйти
Однозначно самая необычная из посещённых площадок. Но чтобы рассказ про неё был понятен, необходимо отойти в сторону и обратиться к историческому месту интернет силы Петербурга — Большой Морской 18.
БМ18 — расположенная в университете промышленных технологий и дизайна, исторически сложившаяся крупнейшая точка обмена трафиком в городе. Только операторов тут что-то около 120, а количество кабелей, волокон и возможностей по организации связи так и вовсе запредельное. В основном это случилось из-за географического положения — самый центральный центр города. Прямо напротив арки главного штаба, в двух минутах ходьбы от Зимнего Дворца и т.д. Но помимо своей очевидной огромной значимости для местных телекомов, она также известна регулярностью возникающих проблем разного уровня адекватности. Среди самых известных — потоп сверху, потом потоп снизу, не забываем про пожар и несчастного электрика, который за отключенную порнуху вырубил связь в половине города, и т.д. Основная причина – БМ18 расположена в федеральном университете, поэтому особенно вкладываться в инфраструктуру не своего здания, естественно, никто не хочет, и отсюда многочисленные косяки. Многих это раздражает, но деваться особенно некуда, и операторы продолжают там сидеть.
Большой, если так можно сказать, машзал
Но если есть спрос, то будет и предложение. Под этим девизом и был организован дата-центр БончАйти. Но напоминаю: это всё ещё центр города, это старые дома, это толпы туристов и прочие вещи, которые ну никак не соотносятся с таким понятием как ЦОД.
Итак, первое, на что обращаешь внимание, это размер. После посещённых объектов, он кажется просто крохой. Большой зал — 25 стоек, малый всего на 8. Но тут на сцену выпрыгивает главная идея организации этого ЦОД’а — быть максимально привлекательным для операторов и дать максимально близкий доступ до широких каналов связи генераторам тяжелого трафика. Для примера, сейчас в БончАйти стоят сервера главного городского новостного сайта fontanka.ru После публикации обсуждаемых новостей их исходящий трафик подскакивает до 4 Gb/s, и наличие операторов в непосредственной близости от серверов значительно упрощает и их жизнь, и жизнь самих операторов. Реализовано это с помощью мультипровайдера: на один маршрутизатор заведены несколько операторов связи и непосредственно генератор трафика. Суммарная ёмкость каналов получается 27 Gb/s.
У связистов есть поверье — интернет самоудалится, если в мире не останется операторских шкафов без бороды. Поэтому каждый связист спасает интернет от этой напасти как может
Но как мы понимаем, таких генераторов трафика не особо много, поэтому машзалы огромных размеров им и не нужны. С другой стороны, операторам для организации пиринга и кроссировок также нет нужны держать гору активного оборудования, а патч панели электричества и холода не требуют. Хотя руководство заверило, что и обычные сервера принимают на постой с удовольствием, благо цены вполне демократичные. Но принимать больших корпоративных клиентов, которые привозят много тяжелого железа, которое кушает много электричества и выделяет много тепла, они не готовы.
Далее. Дата-центр находится на первом этаже обычного нежилого дома, а значит как-то надо извернуться с резервным питанием и решить проблему охлаждения.
Кто-то не умеет ровно вешать оборудование
С охлаждением всё более-менее понятно: прецизионные кондиционеры, скромный выносной модуль и фальшпол делают своё дело. Кстати и сам дом помогает — эта часть здания всегда в тени, так что окружающий воздух сам по себе всегда прохладный.
А вот с резервным питанием тут интересно вышло. Ясное дело, что никто в здравом уме, никогда не разрешит установку дизельного генератора во дворе дома, а значит надо как-то изворачиваться.
Выход был найден презабавнейший: неподалёку, на другой площадке, стоит готовый на всё генератор, который в случае аварии быстро привозят и подключают в цепь питания через соединитель на улице. Возникает резонный вопрос — а как же пробки? Это же центр города, тут же всё всегда стоит! Но ребята утверждают, что всё проверили боем, во время самых жутких пробок и готовы чуть ли не на руках его затаскивать. По факту, гарантированное время доставки 40 минут. Кажется, что не мало. Но ИБП рассчитан на поддержание работы в течение часа, и его мощности будут наращиваться по мере заполнения залов оборудованием. Очень интересное решение, как мне кажется.
В качестве вывода:
Если вы хотите добираться до своих серверов за гарантированное время – вам сюда (метро в соседнем доме). Если вам нужен пучок операторов – вам сюда. Если экономия на трафике для вас не пустой звук – вам особенно сюда т.к. сейчас интернет дают бесплатно. Если вы в бизнесе цените отношения с коллегами больше бумажной волокиты – это однозначно ваш вариант. Каждый визит сюда будет выглядеть как визит к старым друзьям на рюмочку чая. Но если у вас нет специфических требований, то я бы подумал в сторону более классических мест.Послесловие
А потом мы пошли кататься на кораблике, где нас ждало вкуснейшее немецкое пиво, правильная пивная еда и экскурсоводы из всех посещённых дата-центров. Беседы были уже более предметные, т.к. появились впечатления от разных площадок и можно было аргументированно сравнивать их между собой.
Представителям дата-центров тоже интересно узнать, какое впечатление они производят по сравнению с коллегами и насколько отвечают запросам той аудитории для которой себя позиционируют. И опять же — понять, что надо клиентам.
Да и просто живое общение никто не отменял. Возможно, я не слышал, но никто никому ничего не пытался продать в тот вечер.
В общем, запомните: любое мероприятие в Питере должно заканчиваться на кораблике. Это аксиома. Но если вам нужны доказательства, вот вам главное — с корабля не сбежать.
Что хочется сказать в конце
Данное мероприятие оставляет после себя исключительно положительные эмоции. Абсолютно нет ощущения потерянного дня, как это зачастую бывает после маркетинговых поездок. Полезные для бизнеса контакты, новые знакомства и приятное ощущение новых знаний. Хотя, возможно, во всём виноват кораблик и пенные напитки, которые, как известно, способствуют беседам.
Поставленная цель — показать рынок ЦОДов — выполнена на все 100%. Конечно рынок намного больше, чем 4 дата-центра, но когда ты воочию ощущаешь разницу между, казалось бы, одинаковыми местами, принять правильное решение становится намного легче.
За себя хочу сказать, что теперь аргументированно могу посоветовать с выбором площадки в зависимости от поставленной задачи. Как минимум, в пределах увиденных за этот день. Раньше все рекомендации могли происходить по принципу: ну вот про этих говорят, что они не плохи и по деньгам неплохо, и аптайм вроде есть. Но не должен настоящий инженер в своих словах использовать слова “вроде” и “кажется”.
Что хочется выделить отдельной строкой — формат такого мероприятия это готовый корпоратив с минимальным бюджетом. Уверен, что миллион и тысяча офисных айтишников с превеликим удовольствием бы повторили этот путь, не забывая часть про обед и прогулку на кораблике. Осталось договориться с ЦОДами. Хотя многие и так приглашают на экскурсию, но один ЦОД без возможности сравнения это довольно скучно.