Нужен энергоэффективный дата-центр? Тогда стоит построить его под водой



    Когда Шон Джеймс, специалист по разработке дата-центров из Microsoft предложил коллегам идею создания ЦОД под водой, его посчитали едва ли не сумасшедшим. Но он не забросил свою идею, а стал постепенно развивать. С течением времени у него появились единомышленники. Примерно за год после появления идеи был разработан прототип небольшого ЦОД, готового для размещения на дне Тихого океана.

    Речь идет о проекте, который получил название Project Natick. О нем мы уже писали, а сейчас появилась более подробная информация с некоторыми техническими деталями. По словам авторов идеи, основные преимущества такого типа ЦОД-ов это снижение затрат энергии на охлаждение оборудование, а также возможность размещения дата-центров ближе к пользователям, что сократит время обработки запросов. В Microsoft подсчитали, что около 50% населения мира живут примерно в 100 км от побережья. Еще одно преимущество — модульность.

    Плюс ко всему, в компании считают, что на строительство таких дат-центров понадобится меньше разрешений от регуляторов.

    Как это выглядит?


    По замыслу, подводный ЦОД от Project Natick будет представлять собой систему из отдельных стальных цилиндров, в каждом из которых располагается типовое серверное оборудование. Дата-центр будет состоять из большого количества таких цилиндров. Подводный ЦОД сможет вмещать несколько тысяч серверов. Дата-центры будут располагаться рядом с побережьем на глубине от 50 до 200 метров. Стальные цилиндры могут как плавать (для этого создается специальная система балансиров), так и быть прикрепленными к дну моря или океана.

    Все цилиндры будут находиться под водой, их будут поднимать на поверхность только в двух случаях. Если потребуется заменить сервера, которые находятся в них либо же изменятся условия рынка и дата-центр решат перенести. Управлять дата-центром придется исключительно удаленно, без возможности исправить какую-то техническую проблему или заменить вышедший из строя аппаратный элемент.

    Модульная структура таких серверов делает их производство более простой задачей, чем создание оборудования для обычных дата-центров. У Microsoft будет специальный промышленный объект, где элементы подводных дата-центров будут производиться «под ключ». На складе всегда будет несколько готовых стальных цилиндров, полностью укомплектованных и готовых к отправке в любую точку мира. Никаких модификаций оборудования не потребуется, все соответствует единому стандарту. Это позволит строить дата-центр за 90 дней вместо обычных нескольких лет. Речь идет о 90 днях с момента указания на развертывание дата-центра от руководства до момента введения всей системы в строй.



    Высота цилиндров составляет около 3 метров, диаметр — 2 метра. Эти цилиндры полностью герметичны. Контейнеры было решено сделать цилиндрической формы для того, чтобы они лучше держали давление на глубине. Конечно, даже при низкой окружающей температуре оборудование внутри нагревается. Так вот, система охлаждения здесь жидкостная. Внутри — теплообменные устройства, переводящие тепло из воздуха в жидкость.

    Представители Microsoft заявили, что если дата-центр будет большим, возможно, придется использовать жидкие диэлектрики или гелий под высоким давлением. При этом цилиндры нужно покрывать каким-то материалом, который будет препятствовать их обрастанию биомассой (ракушки, водоросли) и прочее, что может мешать эффективному охлаждению.



    Например, капсула, которая тестировалась ранее, уже в первые же сутки после погружения стала центром внимания для морской живности — крабов и других животных. В то же время, оказалось, что разработанная для подводных дата-центров система охлаждения работает вполне эффективно (при температуре воды в 10-18 градусов Цельсия).



    Что касается снабжения дата-центра энергией, в будущем компания рассчитывает на возобновляемые источники. Это ветер, энергия приливов, волн и течения. Сеть подключается с берега при помощи оптоволоконного кабеля.

    Время эксплуатации системы составляет около 5 лет. После завершения этого срока на место прибудет специальная команда, которая либо заменит устаревшее оборудование, либо заберет ДЦ для переработки. В целом, предусмотрено 4 возможных цикла обновления оборудования, что позволит подводному ЦОД работать вплоть до 20 лет.

    • +12
    • 6.2k
    • 7
    King Servers
    0.00
    Хостинг-провайдер «King Servers»
    Share post
    AdBlock has stolen the banner, but banners are not teeth — they will be back

    More
    Ads

    Comments 7

      0
      Когда Шон Джеймс, специалист по разработке дата-центров из Microsoft предложил коллегам идею создания ЦОД под водой, его посчитали едва ли не сумасшедшим.


      Теслу, Да Винчи и т.п. тоже считали сумасшедшими, тем не менее они были гениями.
      По мне так идея стоит внимания и лучше ее проверить и если она плоха ее забыть чем сразу пустить в утиль, а в итоге окажется что это прорыв.
        0
        А потом будут писать, ой-ой-ой, световоетепловое загрязнение.
        • UFO just landed and posted this here
            +1
            Финансовая составляющая данного проекта вызывает у меня большие сомнения…
            Что-то как-то очень с большим трудом верится, что прокладка километров оптики и _силовых_ кабелей по дну морскому будет дороже наземной инсталляции всего на порядок. Думаю, все же, строительство подводной инфраструктуры будет на два-три порядка дороже. Учитывая, что прокладка подводного кабеля стоит примерно от 30 килодолларов за километр «оптом», то просто булькаем ЦОД под воду в 22.2 км от берега (ну сразу за границами территориальных вод), кладем по кратчайшей кабели до берега (игнорируем, что мы пытались избавиться от привязки к «территории») и… 22.2 умножить на 2 оптических кабеля (минимум) плюс 22.2 умножить на два силовых кабеля округлим до 100 км… 3 миллиона только на прокладку кабелей по самому минимум-миниморум, без учета стоимости кабеля, без учета прибрежной инфраструктуры, электрической трансформаторной подстанции и ИБП под водой…
            Что-то как-то дороговато получается по 600 тысяч долларов за стойку только на прокладку кабеля… При себестоимости «под ключ» стойки в ЦОД Tier III со стройкой, электричеством (включая ИБП, ДГУ и свои ТП), интернетом, охлаждением и всем-всем-всем — в пределах 10 килодолларов за киловатт. А можно и дешевле, если с умом к процессу подойти. И по эффективности охлаждения, например, на земле сейчас достаточно легко и уже не запредельно дорого делается средний за год PUE меньше 1.15 для всей территории России.
            Под водой, если повезет, удастся добиться PUE 1.05. И сколько времени мы будем отбивать на экономии электроэнергии лишние 2 миллиона долларов за прокладку кабелей?
            На картинке нарисовано, что запитывать можно от ветряков. Тогда не надо тянуть по дну 50 км силовых кабелей, можно обойтись километром. Да. Но тогда летят утверждения о 90 днях от заказа до запуска в эксплуатацию. Off-Shore ветряк строить от заказа до запуска в эксплуатацию, мягко говоря, чуть-чуть дольше. Там только лид-тайм на изготовление ветряка раза в два больше.
              0
              Вы не колега Шона Джеймса, случайно?)
                0
                Случайно нет. Но бюджеты строительства ЦОД считать приходилось много раз.
                Идея интересная. Развивать нужно — хороший вариант для защищенных от ядерной войны ЦОДов и для размещения шпионского оборудования у берегов «вероятного противника».
                Но. Чтобы возникла необходимость охлаждать ЦОД, сначала нужно обеспечить энергоснабжение этого ЦОД. А с этим — много интересных вопросов. Как завести электричество, как организовать разъемное соединение электрического кабеля с модулем, как обеспечить заземление?
                Ставить рядом ветряк? А смысл топить бочку тогда? Пусть лучше плавает рядом с ветряком. Или для защиты от шторма? Ну так для этого проще старый контейнеровоз купить и на нем ЦОД в контейнерах собрать и пригрузить его балластом, чтобы в шторм меньше качало.
              +1
              А мне кажется, что эффективнее ставить мини-ДЦ по берегам рек, прямо внутри городов. Буквально несколько стоек, но для них не нужны будут километры оптики и силовых кабелей, вся инфраструктура очень близко.

              Only users with full accounts can post comments. Log in, please.