Пасхальные яйца почти на каждой второй фотографии. Посмеялся. Так ведь смотришь с умным лицом, всматриваешься во все эти узлы и приспособы ДЦ, а тут опа! (=
P. S.: Гордон порадовал, сразу захотелось киркой долбануть кого-нибудь в этой комнате)))
P. S. S.: Пятая фотка зачётная, на переднем плане мак, а сзади Виста)
Судя логике, если стоит памятник Стругацких за идею названия, где-то неподалеку должен быть памятник Самизнаетекого )))
В целом смотрится очень продуманно и перспективно. Спасибо за отчет!
На презентации говорили, что его построили в практически рекордные сроки… но вот запуск отложили, чтобы не выпускать полуфабрикат, а сразу готовый продукт
У меня есть один достаточно глупый вопрос, но который не дает мне покоя. Как в датацентрах, особенно больших, борятся с запылением оборудования? Как — то чистится регулярно?
стоят фильтры в кондиционерах. Плюс стоят повышающие компрессоры (то есть давление внутри всегда выше, чем снаружи), за счет этого пыль не засасывается в помещение.
Не будет. Халаты, бахилы, воздушные шлюзы. Воздух постоянно рециркулирует через систему фильтров. Люди там находятся (в идеале) очень мало.
Это гермозона. ;)
Меня вот другой вопрос интересует. Надежность доставки трафика 99%? Стоило городить такой огород ради такой низкой надежности? Наверное кто-то где-то с запятой ошибся.
Вот тоже зацепился взглядом за эти значения. 99% доставки, да ещё 30 мс время доставки пакета до М9/М10 (когда до соседних областей время двойного оборота составляет 6-8 мс) — как-то подозрительно. Очепятка? Хотелось бы услышать комментарии об этом аспекте.
Ну и в любом случае, спасибо за обзор, ДЦ выглядит очень аккуратно, это приятно.
Насчет этого я не в курсе — сайт Лебедев похоже, так и не запустил ) Но думается мне, там в основном будет крутиться всякая банковская штука, провайдерская… ну и всякие действительно крупные проекты
Ну как бы есть. Укртелекомовский для клиентов точно не хуже. Разве что жидкостного охлаждения и бюстов в коридоре нет — этот видел сам. Плюс у Воли, Colocall по идее не хуже
Не могу сказать, что фишка в бюстах, а вот жидкостное охлаждение — это важный момент. Старый ДЦ Воли при всем моем уважении к этому подразделению компании и в подметки не годится Оверсану, летом там не раз случались блэкауты из-за проблем с охлаждением/питанием. Колокол на L9 — и подавно. Я был и пользовался услугами и там и там. Хотя у Колокола сейчас адрес ДЦ вроде бы другой, на Тургеневской, так что по поводу этого ДЦ затруднюсь ответить.
«Остальных» — это еще Дата-Груп? ;) Не был, но что-то говорит, что такого я там не увижу. Хотя с радостью почитаю ваш репортаж про них и в случае, если я ошибаюсь, сниму шляпу как перед вами, так и перед ними.
Деново — может быть. По поводу Мирохоста/Имен, то не уверен, что компания, которая вот уже лет как минимум 5 не может сделать редизайн своих сайтов, способна построить ДЦ такого уровня.
А насчет редизайна сайта имен — так ему ровно 4 года — многовато, как для интернет-компании. А насчет недовольных пользователей — они есть всегда, но быстро привыкают. Соотношение количества довольных/недовольных и их качества — показатель эффективности редизайна сайта ;)
Да, здесь неплохо написано зачем. Только вот со сроком я считаю погорячились. Имхо 3 года максимум, а в идеале — 1,5-2. Но если сайт сделан достойно, то этот срок может быть больше. К сожалению, сайт имен достойным назвать сложно.
Ингейт считает что 4-5 лет, но никак не 1,5-2, а еще много зависит от целей сайта, и если они не обновились и он их успешно решает, то менять не нужно, он не достоин с точки зрения профессионального веб-разработчика, но с точки зрения клиента он чем именно не достоин? давайте переходить на конструктивную критику. icq 118227ноль48
Да я дал не потому, что они такие классные, а потому что первые в поиске попались и более-менее адекватно описаны основные моменты. Пардон, но дальше дискутировать на эту тему смысла не вижу.
Очень понравилась цитата — Что касается безопасности, то в здании ведется круглосуточное видеонаблюдение
и при этом объектив камеры закрыт
Сам в прошлом году закончил МТУСИ и всегда думал, что же в этом здании кроме префектуры находится
Картинки, фотографии — все красиво. Сайт делает Лебедев — денег на пиар не жалеют.
Отбивать потом все это будут повышенными ценами на хостинг и сервера?
И самое главное — непонятно, когда все это собираются запускать?
В мае прошлого года писали, что запустят в августе 2009 — www.osp.ru/text/233652/9129120/
Уже февраль 2010. Очередной долгострой? К августу 2010 запустят или все еще будут дальше пиарить? :)
Вполне возможно. Но сам факт, что сначала гламурно пиарят, а потом усердно прячут самую важную информацию — по меньшей мере странен. Если не сказать хуже.
<занудство>
Небольшое замечание по поводу комментариев «Тааак… здесь у нас плюс… ». На первой фотке однофазная сеть, на второй — трехфазная. Они обе переменные и имеют как плюс, так и минус 50 раз за секунду:-)
</занудство>
ну трехфазная то попеременней будет…
может Вы кроме того, что сеть вдруг _имеет_ плюс, а то она уже имеет минус, да еще всё это и 50 раз в секунду, еще знаете в какую сторону ток течет, от плюса к минусу или от минуса к плюсу? постоянный ток…
Видимо, я недопонял сути сарказма. Насколько «попеременней» 3ф должна быть?:-) Стандартная промышленная сеть, 50 Гц. Хоть одна там фаза, хоть шесть. Насчет сети — подозреваю, что мы оба поняли, что это не она(сеть) плюсовая и минусовая, а, наверное, всё-таки напряжение/ток
Хех, я просто выразил восторг от увиденного. Впервые вижу дата-центр изнутри, да и просто все стерильно выглядит. Прямо как в фильмах про Людей в Черном =)
Как я понял, Оверсан — это компания (холдинг), а все остальные проекты будут с преписками. Оверсан-Меркурий — датацентр, а облачный центр вроде как будет называться Оверсан–Скалакси.
Действительно Оверсан–Скалакси www.scalaxy.ru только цены у них я что-то не нахожу. Вот у Amazon EC2 400 юнитов стоит 34$ в час и все понятно. А ещё у этой Скалакси есть группа в Фейсбуке в ЖЖ на Хабре но нет вконтакте не порядок)
Вопрос по пожаротушению, я так понимаю газ вытесняет кислород и тем самым останавливает горение. Но что будет с людьми если они случайно окажутся в помещении? Персоналу выдается какое то резервное дыхательное оборудование, установлена задержка срабатывания или как?
Насколько я понял, после срабатывания пожарной тревоги, у людей есть минута на эвакуацию — это значит, что надо все бросить и делать ноги. После этого выпускается газ, который препятствует горению (он не отравляющий, но с дыханием тоже не совместим — фторхлоруглерод). Но т.к. внутри гермозон никого просто так находиться не должно, скорее всего, никто не пострадает )
Насколько нам обещали, когда у нас монтировали такую систему — для человека газ безвредный. Но на вопрос, остались бы они в серверной при срабатывании почему-то ответили категорическим отказом :))
Когда же придет тот день, когда люди перестанут страдать фигней «неэффективностью» и начнут по-нормальному эффективно охлаждать оборудование?
Когда из цепочки «процессор — радиатор — вентилятор — воздух — радиатор сплита — фреон — радиатор внешнего блока» исключат хотя бы воздух?
Я одного не могу понять, системы жидкостного отвода тепла из стойки сделали достаточно давно. Почему не сделать отвод тепла прямо из самого сервера? Т.е. вешаешь сервер в стойку и помимо питания и Eth, подключаешь его в контур жидкостного охлаждения через гибкую подводку. Ведь не так уж сложно. Я удивляюсь, что до сих пор даже прототипов не было! Сколько народу своими руками «водянок» и «фреонок» понаделало..., а изготовители серверов никак не догадаются?
Ну незнай… слабо представляю себе тот пучок гибких трубок, который должен подходить к стойке с кучей серваков (а если в каждом по несколько процев, винтов и тп?). А что будет на выходе, от всех стоек? ) Да и в обслуживании гораздо сложнее будет — постоянный контроль состояния трубок, замена хладагента итп.
Трубок к стойке, должно подходить четыре. Две подводных и две отводных. На случай отказа активной части, чтобы две других продолжали охлаждать. Сечение только у этих труб должно быть с дюйм. А вот сервера можно подключать гибкими шлангами, конечно не такими как в сантехнике, гораздо качественней и надежнее.
постоянный контроль состояния трубок, замена хладагента итп.
Автор. Похоже у тебя немного опыта работы с ДЦ. Может я ошибаюсь, но… сейчас часто в качестве хладагента используется вода. В том же решении infraStruxure и там гибких шлангов полно и стоя они годами. Не стоит путать водянки для хоумюзеров и компоненты ифраструктуры ЦОДов. Эти вещи давно найчились делать такими, что затраты на эксплуатацию минимальны. Стоимость правда высоковата.
«Похоже у тебя немного опыта работы с ДЦ» — я бы сказал, что его нет вообще ) Это по сути просто фото репортаж. Но минимальные представления хотябы о тех же сво есть. Так вот, если использовать обычную воду, пусть даже дистиллированную, рано или поздно всякая нечисть все равно появляется.
Вопрос заведения бяков обычно решается присадками к носителю и фильтрами. Т.е. присадки и предохраняют от появления и вымывают в случае оного. Фильтры фильтруют :)
В общем, техническая сторона жидкостного охлаждения давно имеет хорошие воплощения. Вопрос в том, что конструктивно, никто еще не применял таким образом, чтобы снимать тело настолько близко к источнику, минуя воздух.
А можно поподробней про материал которым отделаны потолок и стены?
Само помещение своими границами не имеет сообщения с улицей?
Странно что труба ГПТ не заварена, а завинчена пробкой…
Сделано качественно. Ощущение, что привезли целиком на корабле здание и поставили прямо так из другой страны.
Однако, если хостинг будут продавать открыто, вся эта красота пойдет частью своей под порно и хлам типа маркетгида… Обидно.
Непонятна некоторая избыточность местами: например, зачем у серверов стоят двд-приводы? Почему нельзя сделать их горячего добавления / на USB — они же не используются большую часть времени, причем значительную часть… А надо обслужить — пришел, воткнул — сделал, вынул…
Может он и копейки стоит, но на пересчете на большое количество оборудования… Думаю, таких примеров очень много там.
Хороший обзор, жаль, немного поднаготной типа пространства под фальшполом, систем охлаждения и т.п.)
Эх, когда-то такая же красота была в одном институте, где я видел остатки БЭСМ6…
Насколько я знаю, привод — это не какая-то прихоть, а конструкционная особенность самого сервера. Вот, например, еще серваки. И ничего плохого я в них не вижу — не шумят, места занимают не много (в любом случае, на их место много чего не приделаешь).
«А надо обслужить — пришел, воткнул — сделал, вынул…» — прям так вас туда и пустили внутрь с внешним приводом, винду переставлять )))
Хорошо, тогда вообще они там зачем нужны?) Если большая часть всего обслуживания, кроме железячного, делается удаленно?
Ну не я, персонал придет ставить, что ему угодно..)
Мы же все хотим верить, что однажды оптика умрет как носитель того, что скачивается через сеть, странно, что производители все-же изначально ставят этот рудимент.
to spiritus_sancti
Когда сработает аларм на пожар — первый заметивший бежит к двери и открывае её. Размыкается геркон — пока дверь не закроется пожар тушится не будет! Это делается специально чтобы люди могли покинуть помещение. Так как весь объем за секунды будет заполнен фреоном вытесняющим кислород.
А для удаления этой бяки должна быть смонтирована система дымоудаления.
Во, точно! Я помню, что что-то про открытую дверь говорили. И что вроде как были случаи в других дц, что ручной режим не помогал, а автоматика иногда срабатывала ложно.
Да, системы дымоудаления как раз есть… и если вдруг возгорание повторится (что маловероятно), система снова сработает, «вторым спуском»
К нераспроданным 10000-15000 м2 пола ДЦ в Мск добавилось еще 500 по виду. Есть ли помещения для техперсонала клиента круглосуточного, почем инет, почем стойка на 5кВт — тема не раскрыта…
tier классификация отказоустойчивости… Судя по 2м независимым подстанциям, системе кондиционирования и связанности это 2+, хотя в репортаже про отдельностоящее здание не сказано…
Узнал цены, попросил посчитать стоимость colocation, письмо пренаправили в mchost их ответ:
Подлючение. Единоразовые платежи:
Размещение оборудования в стойке (за unit) — 2500 руб.
Подключение порта коммутатора Ethernet, режим подключения 100 Мбит/сек full-duplex (за порт) — 1000 руб.
Абонентская плата:
Аренда места в стойке (за unit) — 3000 руб. в месяц;
Аренда порта коммутатора Ethernet, режим подключения 100 Мбит/сек full-duplex (за порт) — 2000 руб. в месяц
бесплатный неограниченный трафик, без соотношений и без урезания полосы
Поставить web server еще неплохо, но переезжать к ним со всеми серверами вылилось бы в 2,5 раза дороже :(
не, эт таки закрытый крышкой обычный вари-фокальный объектив
http://www.ccd.dn.ua/images/product_images/popup_images/2236_3.jpg
http://www.ccd.dn.ua/images/product_images/popup_images/2236_1.jpg
А что еще должны делать? ) Зайдите на их сайт — там в предентации рассказано гораздо больше. И это ж только открытие было, что там бдет в ближайшем будущем — я не знаю
besho.narod.ru/reviews/oversun/30.jpg — фотка хитрый план или для этих проектов выделены персональные линии?
Насколько мне известно, torrents.ru, nnm-club.ru и thepiratebay.org хостятся в других местах.
Мне, как человеку к этой теме близкому, очень хотелось бы узнать этапы проектирования этого ДЦ. Если сможете подсказать какие то источники и контакты по этому поводу, то буду очень благодарен. Сам давно слышал о его разработке, но вот узнать как там внутри всё устроенно и не надеялся в ближайшее время. Большое спасибо за хороший обзор.
Не согласен. Вся автоматизация делается с целью экономической выгоды (повышение доходов или сокращение расходов), а не просто «чтобы было красиво как на военной базе». Стартовая точка — бумажный документооборот, печатающие машинки, курьеры. Можно от этого перейти к компьютерам-принтерам-курьерам-(+мальчик сисадмин). Это уже принесет определенную выгоду. Хоть придется платить сисадмину, зато каждый работник сможет делать в разы больше, потому что не надо с нуля перепечатывать каждый похожий документ или тем более копию. Следующий этап — вместо курьеров делаем сеть. Получаются затраты на роутеры и кабель, на обслуживание, но сокращается двести курьеров.
И последний этап — когда у нас есть БОЛЬШАЯ работающая схема с сетевым обменом — то вкладываемся вот в такой вот ДЦ. Не потому что нам нужен ДЦ «как будто мы большие дяди», а потому что лучше оплачивать 100 человек обслуживающего персонала ДЦ, чем 10 000 сисадминов-сетевиков.
Но если документооборот небольшой, возможно идеальный уровень развития — один сервачок под столом у админа в серверой и этого хватит.
Поэтому мое мнение такое — если хватает денег на бумажный документооборот (со всем его накладными расходами, как замена печатающих машинок, ленточки для них, зарплата курьеров, зарплата сотрудников, которых надо много, так как их производительность низкая), а на это денег хватает, раз уж у нас как-то государство работает, то хватит и на автоматизацию до нужного уровня. На такой ДЦ может не хватить, но только в том случае, если он реально не нужен, кроме как для понтов и распила бабла (400млн на ДЦ, 200 вам сверху и еще 400 нам откат — итого 1 млрд).
История одного дата-центра