
Если кто-то ещё думает, что дата-центр — это про стойки, клауд и «пятую зону отказоустойчивости», стоит посмотреть на его платёжку за свет. В реальности ЦОД — это про энергетику: большинство современных ЦОДов потребляют мегаватты ежедневно, и именно за киловатты приходится платить больше всего.
Даже если ИТ-нагрузка у вас составляет 1 мегаватт, реальное потребление ЦОДа будет 1,5–2 МВт — в зависимости от архитектуры. И пока стоимость железа и лицензий списывается по амортизации, электричество капает в счёт каждый час. День за днём. Год за годом.
Эта статья — про то, почему энергия дороже всего, как устроено энергопотребление дата-центров и почему архитектурные решения, режимы охлаждения и плотность стоек в итоге превращаются в рубли.
Из чего складывается энергопотребление ЦОДа
Когда говорят «электричество уходит на серверы», это только часть правды. Даже в относительно современных ЦОДах на ИТ-нагрузку приходится 40–50% потребления, а остальное — это цена за то, чтобы эти серверы не превратились в пепел.
Компонент | Доля от общего потребления | Почему? |
Серверы и хранилища | 40–50% | Зависит от плотности стоек и их загрузки |
Охлаждение (HVAC) | 30–40% | Вентиляторы, чиллеры, холодные коридоры |
ИБП, трансформаторы | 10–20% | Потери при преобразовании и передаче |
Свет, системы охраны | 1–5% | На фоне остального — мелочь, но тоже есть |
Реальный показатель эффективности — это PUE (Power Usage Effectiveness), то есть насколько «чисто» электроэнергия уходит именно на ИТ. Если PUE = 2.0 — это значит, что на каждый 1 кВт для серверов тратится ещё 1 кВт на всё остальное. Хорошим считается PUE в районе 1.2–1.4, но в реальности по России средний ближе к 1.6–1.8, а в старых ЦОДах — и все 2.0.
Простой расчёт: если серверы тянут 500 кВт, и у вас PUE = 1.6, значит, общая нагрузка на ввод — 800 кВт. При цене 4 ₽ за кВт·ч — это почти 3,2 млн ₽ в месяц, только за свет.
Серверы едят электричество — это понятно. Но почему столько уходит на «всё остальное»?
Системы охлаждения
Современные 2U/4U серверы выделяют 400–600 Вт тепла каждый. Если у вас в стойке 20–30 таких, выходит под 10 кВт тепловой нагрузки на 0,6 м² площади.

Обычные кондиционеры с таким объёмом не справятся, поэтому ставят прецизионные кондиционеры, водяные чиллеры, а в продвинутых ЦОД — фрикулинг, адиабатику и даже жидкостное охлаждение.
Всё это само по себе — оборудование, которое потребляет энергию. Чем горячее железо, тем выше счёт за его охлаждение.
ИБП и трансформаторы
ИБП (источники бесперебойного питания) работают по схеме двойного преобразования: сначала переменное → в постоянное, потом обратно. Каждый такой цикл — это потери. У хороших UPS КПД 94–96%, но если таких цепочек несколько — теряется ощутимо.
Трансформаторы, коммутация, щиты — всё это тоже вносит потери: сопротивление проводов, рассеяние на дросселях, работа вентиляторов. На больших мощностях даже 2% потерь — это десятки тысяч рублей в сутки.
Резервы и избыточность
Большинство ЦОДов построены по схеме N+1 или 2N, чтобы выдерживать отказ любого элемента. Это значит, что часть мощностей работает вхолостую или с минимальной нагрузкой.
То же касается дизель-генераторов и аккумуляторов — они почти всегда включены в сеть, и хоть напрямую не жрут много, требуют регулярной подзарядки, вентиляции и обслуживания.
Когда киловатты вытекают сквозь проект
Когда смотришь на два дата-центра с одинаковым количеством стоек, но разными счетами за электричество, разница почти всегда кроется в архитектуре. То, как спроектирован ЦОД, на что он рассчитан и как используется, определяет эффективность не меньше, чем модель серверов в стойке.
Гиперскейл против «корпоративной классики»
Гиперскейл-ЦОД — это промышленный объект, заточенный под экономию. Там оптимизировано всё: сдвоенные стойки с изоляцией горячих коридоров, свободное охлаждение через внешние шахты, минимум человеческого вмешательства. Такие ЦОДы спокойно держат PUE 1.1–1.2.
Корпоративные ЦОДы — это часто компромиссы. Их проектировали под расширяемость, но без плотной загрузки. Много резервов, кондиционеры «на всякий», вентиляция проектировалась без CFD-моделирования. И в итоге — PUE 1.6–2.0, а иногда и выше.
Простой расчёт: если нагрузка 500 кВт и PUE = 1.2, весь ЦОД тянет 600 кВт.
А при PUE = 2.0 — уже 1 МВт. В два раза больше счета за тот же результат.
Высокая плотность — высокая цена за ошибку
С переходом на HPC и GPU-нагрузки выросла плотность стоек. Если раньше 10 кВт в стойке было максимумом, сейчас 20–30 кВт — норма. Один сервер на 8×A100 может выжигать до 2–2,5 кВт, и это только железо. Добавим сюда потери на VRM, чипсет, вентиляторы и на каждую GPU-стойку.

Ошибки тут дороги:
недостаточный воздухообмен — и у тебя термотроттлинг и перегрев;
резерв не рассчитан — ИБП начинает орать и сбрасывать нагрузку;
отсутствие зонального охлаждения — и PUE взлетает на ровном месте.
Классическая ошибка — проект под пиковую нагрузку
Многие ЦОДы до сих пор проектируются под максимальную возможную мощность, а не под реальное потребление. В итоге:
ставится мощный ИБП, который большую часть времени работает на 30% загрузки, а значит, падает КПД,
чиллеры и вентиляторы работают на холостом ходу,
в стойках по 5 серверов вместо 20, воздух гоняется просто так.
Всё это — пустые киловатты. За которые приходится платить, даже если серверы в полусне и не обрабатывают реальных задач.
CPU, GPU, загрузка: что на самом деле влияет на счёт
Современные AI/ML-стэки — это в первую очередь GPU, и это проблема. Один H100 (или A100) может потреблять до 700 Вт, и таких в одном узле может быть 4–8. Плюс CPU, память, SSD. Итог — 2–3 кВт на сервер, не считая питания для системы охлаждения. Сравнение:
CPU-нагрузка (типичный web/DB): 200–400 Вт/сервер;
GPU-нагрузка (инференс/тренировка): 1500–3000 Вт/сервер.
Разница — в 5–10 раз. И чем выше потребление, тем больше тепла, тем больше нагрузки на охлаждение, тем выше итоговое потребление ЦОДа.
Кроме того, никто не любит об этом говорить, но огромное количество стоек в ЦОДах работает вполсилы. Серверы включены, подсветка горит, вентиляторы крутятся — а нагрузка 10–20%.
Дело не в технике, а в эксплуатации: кто-то боится консолидировать, кто-то «держит запас», кто-то просто не следит.
Между тем: сервер в idle всё равно потребляет 40–60% от пика, виртуалки без дела гонят процессор, плохая конфигурация C-стейтов или отключённый EIST — и CPU никогда не уходит в пониженные частоты. Энергия уходит, работа — нет, а счёт идёт.
Сколько на самом деле стоит электричество для среднего ЦОДа
Возьмём в качестве примера относительно типовой дата-центр на 40 стоек. Если каждая стойка рассчитана на 15 кВт, но реально загружена процентов на 70, то ИТ-нагрузка составит примерно 420 кВт. При PUE в районе 1.6 (а это уже хорошо, но не идеально), общее энергопотребление составит около 670 кВт.
Перемножаем: 670 кВт × 24 часа в сутки × 30 дней — и получаем около 480 МВт·ч ежемесячно. Теперь умножаем это на средний тариф, скажем, 4,72 рубля за киловатт-час. Итого — почти 2,2 млн рублей в месяц только за электричество. Без генераторов, без капексов, без поддержки, только электричество.
За год — больше 26 млн. И это не для какого-нибудь гиперскейла с кластером на 10 мегаватт, это вполне себе скромный дата-центр, даже не перегретый.
Теперь представим, что у тебя не 40 стоек, а 100. Или половина стоек отведена под GPU, которые потребляют в 3–5 раз больше энергии, чем обычные серверы. Или ты не оптимизировал вентиляцию, у тебя PUE не 1.6, а 2.0. И всё — счёт за электричество удваивается.
Вывод
Если упростить всё до одного предложения: электричество — самая дорогая статья в бюджете ЦОДа, потому что всё в нём существует ради того, чтобы непрерывно питать нагрузку и избавляться от её тепла.
Серверы, хранилки, виртуалки — это не «главное», а полезная надстройка. Основная задача инженерной части — завести киловатты, распределить их с минимальными потерями, обеспечить отказоустойчивость и держать температуру в рамках. И платить за всё это каждый час.
Скорость процессора, количество RAM и тип виртуализации — всё это важно, но если ты не рассчитал энергетику — ничего из этого не будет работать. Или будет, но быстро выйдет из строя, а платить за электричество придётся всё равно.
© 2025 ООО «МТ ФИНАНС»