Если текущие тенденции сохранятся, центры обработки данных для обучения и работы искусственного интеллекта вскоре могут содержать миллионы чипов, стоить сотни миллиардов долларов и потреблять мощность, эквивалентную электросети крупного города. Это согласно новому исследованию исследователей из Джорджтауна, Epoch AI и Rand, которые рассмотрели траекторию роста центров обработки данных AI по всему миру с 2019 по этот год. Соавторы составили и проанализировали набор данных из более чем 500 проектов центров обработки данных AI и обнаружили, что, хотя вычислительная производительность центров обработки данных ежегодно увеличивается более чем вдвое, также растут и требования к питанию и капитальные затраты.

Полученные результаты иллюстрируют сложность создания необходимой инфраструктуры для поддержки развития технологий AI в ближайшее десятилетие. OpenAI, которая недавно заявила, что примерно 10% населения мира использует ее платформу ChatGPT, заключила партнерство с SoftBank и другими, чтобы собрать до 500 миллиардов долларов на создание сети центров обработки данных AI в США ( и возможно, в других местах ). Другие технологические гиганты, включая Microsoft, Google и AWS, коллективно пообещали потратить сотни миллионов долларов только в этом году на расширение своих центров обработки данных.
Согласно исследованию Georgetown, Epoch и Rand, расходы на оборудование для центров обработки данных AI, таких как Colossus от xAI, стоимость которого составляет около 7 миллиардов долларов, увеличивались в 1,9 раза каждый год в период с 2019 по 2025 год, в то время как потребности в электроэнергии увеличивались в 2 раза ежегодно за тот же период. (Colossus потребляет около 300 мегаватт электроэнергии, что соответствует 250 000 домохозяйствам.)

Исследование также показало, что центры обработки данных стали намного более энергоэффективными за последние пять лет, при этом один из ключевых показателей — вычислительная производительность на ватт — увеличивался в 1,34 раза каждый год с 2019 по 2025 год. Однако этих улучшений будет недостаточно, чтобы компенсировать растущие потребности в электроэнергии. К июню 2030 года ведущий центр обработки данных ИИ может иметь 2 миллиона чипов ИИ, стоить 200 миллиардов долларов и требовать 9 ГВт электроэнергии — примерно выход девяти ядерных реакторов.
Не новость, что потребности в электроэнергии для центров обработки данных AI стремительно растут, создавая значительную нагрузку на электросеть . Согласно недавнему анализу Wells Fargo, прогнозируется, что потребление энергии центрами обработки данных к 2030 году вырастет на 20%. Это может привести к пределу использования возобновляемых источников энергии, зависящих от изменчивой погоды, что приведет к росту использования невозобновляемых, экологически вредных источников электроэнергии, таких как ископаемое топливо.
Центры обработки данных AI также представляют другие экологические угрозы , такие как высокое потребление воды, и занимают ценную недвижимость, а также подрывают налоговую базу штата. Исследование Good Jobs First, некоммерческой организации из Вашингтона, округ Колумбия, оценивает, что по крайней мере 10 штатов теряют более 100 миллионов долларов в год налоговых поступлений от центров обработки данных в результате чрезмерно щедрых стимулов.
Конечно, возможно, что эти прогнозы не сбудутся или что временные масштабы окажутся неверными. Некоторые гипермасштаберы, такие как AWS и Microsoft , в последние несколько недель отказались от проектов центров обработки данных. В заметке для инвесторов в середине апреля аналитики Cowen отметили, что в начале 2025 года на рынке центров обработки данных наблюдалось «охлаждение», что свидетельствует об опасениях отрасли по поводу неустойчивого расширения.