Как охладить оборудование в дата-центре — три новые технологии

    Все больше компаний переходит на виртуальную инфраструктуру, отчего растет нагрузка на серверы в ЦОДах, а вместе с этим потребление электроэнергии. В 2017 году на питание дата-центров пришлось 3% всего электричества, вырабатываемого на планете. В некоторых случаях 40% электричества расходуют системы кондиционирования машинных залов.

    Чтобы сократить расходы на обслуживание оборудования и уменьшить «чек» за электричество, в индустрии разрабатываются новые технологические решения. Далее расскажем об иммерсионном охлаждении, интеллектуальных системах кондиционирования и 3D-печати радиаторов.


    / фото Rolf Brink CC BY-SA

    Иммерсионное охлаждение


    Вода эффективно оптимизирует затраты на охлаждение оборудования в ЦОД. Это связано с тем, что жидкость, проходящая через радиаторы, лучше отводит тепло от оборудования, чем воздух. Однако современные дата-центры заботятся не только о финансовой составляющей вопроса, но и об имидже. Постепенно ЦОД становятся все более «зелеными», сокращая потребление воды.

    По этой причине индустрия чаще обращает внимание на технологию иммерсионного охлаждения, в которой используются специальные диэлектрические жидкости, в которые полностью погружаются серверные платы. Такой подход лучше отводит тепло от железа и помогает снизить характерный для ЦОДов шум в машинном зале.

    В 2017 году свою разработку в этой области представила компания Horizon Computing. Они создали модульный дата-центр, состоящий из нескольких боксов. Боксы заполнены минеральным маслом, в котором находится железо. Конструкционно корпус модулей представляет собой радиатор, поэтому продукт автоматически поддерживает нужную температуру серверов за счет естественной конвекции.

    Еще одним примером иммерсионной технологии может служить проект компании Green Revolution Cooling. Речь идет о специальной масляной жидкости, которая, по заверениям производителя, отводит тепло от оборудования эффективнее воздуха в тысячу раз. Эта особенность дает администраторам дата-центра больше времени на устранение поломок, так как железо дольше нагревается до критически-опасных температур.

    Крупные ИТ-компании решили пойти дальше. Теперь они погружают под воду целые дата-центры. Есть даже мнение, что ЦОДы будущего будут подводными. За одним таким центром под названием Natick, который погружен в океан у островов Шотландии, можно наблюдать в прямом эфире.

    Чтобы охладить серверы, разработчики адаптировали технологию, которую используют на подводных лодках для снижения температуры реакторов. Система кондиционирования забирает воду прямо из океана и доставляет её к радиаторам на стойках с оборудованием. После — она отправляется обратно в океан. Это позволяет экономить воду и снижает затраты на кондиционирование.

    Системы ИИ для управления кулерами


    Системы искусственного интеллекта активно используются для решения различных задач в ЦОД. Например, они оптимизируют производительность оборудования и защищают сети от атак хакеров. Управление охлаждением — еще одно стратегическое направление для ИИ.

    В 2018 году Google доверили алгоритму управление системой охлаждения в одном из своих ЦОДов. Она использует сеть датчиков, которые проводят мониторинг системы по различным параметрам — от уровня влажности воздуха до скорости ветра на улице. На основе данных ИИ составляет прогнозы, как условия окружающей среды скажутся на температуре в дата-центре и расходе электроэнергии.

    Прогнозы позволяют алгоритму принимать оптимальное решение и отправлять рекомендации системе управления кондиционированием. Однажды система самостоятельно «догадалась» использовать холодный воздух с улицы в зимнее время для охлаждения воды в чиллерах. Это помогло сократить расходы на электроэнергию на 30%.


    / фото Alexis Lê-Quôc CC BY-SA

    Схожее по принципу работы решение представили в Litbit. «Умная» система анализирует ультразвуковые частоты и аномальные вибрации пола в машинном зале. На основании полученных данных она способна определить, все ли оборудование работает правильно. Еще один пример — решение Nlyte Software. Оно собирает данные о температуре в машинном зале, объемах потребляемой электроэнергии и др. На основании этих данных система дает администраторам советы, что можно улучшить.

    Охлаждение с помощью 3D-печати


    ИТ-индустрия сегодня совершенствует не только методы охлаждения машинных залов целиком. Предлагаются технологии отвода тепла от отдельных процессоров. Не так давно инженеры из Университета Бингемтон представили решение, которое доставляет воду и хладагенты прямо к чипам серверов. В перспективе разработка может заменить термопасту.

    Инженеры нанесли на кристалл слой сплава из титана, олова и серебра. Затем, с помощью 3D-печати они сформировали в нем каналы для прохождения охлаждающей жидкости. Толщина полученного материала не превышает диаметр человеческого волоса, что дает хладагенту забирать излишки тепла прямо с чипа.

    Специалисты считают, что этот метод способен снизить потребление энергии в ЦОДах на 5% по сравнению с уже применяемыми технологиями. Этот способ опробовали в лаборатории университета, но до коммерческого применения пока дело не дошло.

    Что будет дальше


    Отраслевые эксперты говорят о том, что инфраструктура в дата-центрах становится все более распределенной, а отдельное оборудование занимает все меньше пространства. Это диктует новые требования к системам охлаждения — дата-центры, вероятно, будут занимать меньше места, чем сейчас, но станут производить больше тепла на квадратный метр. Это значит, что все актуальней становятся методы точечного (например, с помощью теплоотводов на процессорах) и иммерсионного охлаждения.

    При этом ИТ-индустрия стремится к автоматизации, поэтому системы искусственного интеллекта будут играть все большую роль в управлении дата-центрами. В том числе и в части охлаждения.

    Дополнительное чтение у нас в блоге:

    ITGLOBAL.COM
    IaaS, Managed IT, PCI DSS, Hybrid Cloud

    Комментарии 13

      +2
      Иммерсионное охлаждение очень красивый маркетинговый ход. Красиво звучит, красиво выглядит. И все восторгаются, до тех пор пока не пробуют внедрить. Мы работали с этим типом охлаждения, с ним столько проблем, что оно становится не целесообразным.

      Тем более, что как это не смешно звучит, в конце этого охлаждения стоит такое же воздушное охлаждение. Обычная градирня с вентиляторами. И эффективность этого типа сильно снижается, в комплексном подходе. Лучше думать о том, как мощнее прогонять воздух по воздуховодам. Компоновку менять и т.п.
        0
        Красиво звучит, красиво выглядит. И все восторгаются, до тех пор пока не пробуют внедрить.

        И в этот момент оказывается что литр этой жидкости(серии 3M Novec 7000) стоит порядка 130$
          0
          Приплюсуйте сюда замену всех электролитов на плате, кучи компонентов. Полная переработка топологии плат, специальная сушка текстолита, осушение самой жижи. Плюс, если хоть немного влажный воздух, либо хоть как-то протекает водянка (капиллярный эффект), то всё. Пиши-пропало. У нас так горело куча оборудования, буквально надышали при включённой воде. Конденсат.
        +1
        Ещё есть попытка перейти на ARM сервера, которые не надо так сильно охлаждать. Посмотрим что из этого выйдет.
          +3
          ARM сервера это больше про «давай Интел снижай конские цены» чем «щас мы станем совсем зелёными». Смотря на нынешние цены, понимаешь, что напугать особо не получилось.
            +1
            «Мы мееедленно спустимся с горы...» =)
            0
            Я хоть и большой сторонник арм, и очень хотел бы чтобы на них перешли. Но думаю воз будет по ныне там.
            +1
            Несмотря на успехи альтернативных технологий, мне кажется, будущее за обычным воздушным охлаждением.
            Кроме простоты, намечается тенденция к увеличению рабочей температуры оборудования, а с ростом этой температуры КПД воздушного охлаждения стремительно растет.
              0
              У воздуха есть предел обусловленный физикой. Выше него уже не прыгнешь.
                0
                Можно комбинировать. Но в целом везде в конце стоит воздушное охлаждение.
              0
              Мне интересно, ЧТО на последней картинке?
              Почему между железками пустое пространство?

              Даже если это ещё не работающие стойки, то я предполагаю, что пространства эти заполняться не будут и не планируются.

              Я теперь спать не буду, буду волноваться за ребят. :) Как они это охладят?
                0
                Судя по практически полному отсутствию коммуникаций (только на крайнюю стойку заведены магистрали) — это самое начало монтажа.
                0
                Есть еще четвертая технология — на контурных тепловых трубах.

                Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.