
Привет, Хабр! На связи Илья Мартысь из Рег.облака. Сегодня расскажу, как мы переезжали в новый московский дата-центр, почему именно DataHouse «Магистральный-1» и при чем здесь серверы с NVIDIA H200.
Навигация по тексту:
Мы растем и места нужно больше
Клиентская база Рег.облака расширяется: приходят проекты на десятки и сотни единиц оборудования, запросы на GPU-серверы для инференса. Текущие ЦОДы с таким темпом роста уже не справлялись — нужна была новая площадка.
Переезд в новый ЦОД — это всегда затраты: узел связи, дежурная смена, опорная сеть. Поэтому мы искали не точечное решение на год, а площадку для роста на несколько лет вперед — с ежегодным вводом новых очередей. Нам нужно 50–70 стоек в год, и важно было гарантировать этот объем заранее.
Рынок этому не особо помогал: дефицит мест, растущие цены, стойки уходили в бронь сразу после анонса. Пришлось бронировать платно — иначе нужного объема не удержать.

Здесь же разворачиваем серверы с GPU для инференса. Например, только что собрали платформу ASUS ESC8000A-E12 с 4 × NVIDIA H200 141GB на NVLink. Спрос на такое железо заметно вырос: компании внедряют ИИ для автоматизации внутренних задач — банки прогоняют через модели документы, логистики строят системы аналитики. Покупать такие серверы — дорого, поставки растягиваются на месяцы, да и дома с ними не поработаешь — 4 × H200 потребляют около 2,4 кВт. Поэтому часть клиентов предпочитает аренду: взял мощности под проект, оценил результат — и либо закрыл без потерь, либо на те же деньги запустил сразу несколько направлений, которые при покупке своего железа просто не влезли бы в бюджет.

Два финалиста и один победитель
На тот момент у нас было два варианта — DataHouse и IXcellerate. DataHouse оказался чуть дешевле и заметно удобнее по расположению.
Мы искали ЦОД, который будет ежегодно вводить новые очереди и выводить стойки на рынок — не разом и много, а постепенно. Это важно: брать бронь больше чем на год невыгодно (цена брони сопоставима с ценой аренды), а меньше чем на год — неудобно в эксплуатации. Нужна была площадка для роста на несколько лет вперед.
DataHouse «Магистральный-1» по этим критериям подошел. ЦОД суммарной мощностью 15 МВт с 1 100 стойками сертифицирован Uptime Institute по классу Tier III — это подтвержденный стандарт надежности инфраструктуры с гарантированным SLA 99,99%. Расположение — 1-я Магистральная улица в Москве, рядом с ТТК и ММДЦ «Москва-Сити».
Что там такого
ЦОД введен в эксплуатацию в мае 2024 года. Семь гермозон, разделенных на горячие и холодные коридоры. Электропитание от ТЭЦ-16 по двум независимым вводам, собственная подстанция 20 кВ. Восемь дизель-генераторов Cummins по 2 200 кВт каждый и модульные ИБП с литий-ионными аккумуляторами — чтобы переход на резервное питание проходил без разрыва. Охлаждение: чиллеры «Рефкул» на крыше и прецизионные кондиционеры AIRSYS с фрикулингом. Мониторинг — на базе SCADA, снимает больше 400 параметров ежеминутно.
Мы арендуем не весь ЦОД — у нас 66 стоек суммарной IT-нагрузкой 500 кВт, часть из которых отведена под облачную инфраструктуру. Планируем заполнить площадку за 2026 год.
С декабря 2025 площадка работала в режиме ограниченного запуска: новые проекты размещали, а полная инфраструктура стабилизировалась чуть позже. В планах на 2026 год — развернуть на «Магистральном» облако с сертификацией по ФЗ-152.
Оборудование на площадку клиента
Расширением нашей инфраструктуры мы не ограничиваемся. В прошлом году начали активно развивать модель оборудования навынос: заключаем договор на нужный клиенту срок, тестируем и отправляем готовое к работе оборудование на его собственную площадку — с возможностью удалённой поддержки.
Актуально для компаний, которым по требованиям ФЗ-152 нужен собственный защищенный контур и нельзя делегировать ответственность за обработку данных подрядчику. Оборудование стоит у клиента, данные никуда не уходят, а мы помогаем с его обслуживанием. При этом возможны гибридные схемы: часть серверов у клиента во внутреннем контуре, часть в ЦОД — и между ними сквозной L2-канал через точку обмена трафиком. Получается инфраструктура, не привязанная к одной площадке.
Место для роста у нас теперь есть — следите за обновлениями.
