У AI-индустрии есть серьезная проблема: как развернуть вычислительную инфраструктуру раньше и быстрее (да еще и дешевле) конкурентов? Основной дефицитный ресурс сейчас — электричество, а не чипы или их компоненты, как вы могли предположить. Техногиганты думают, где поставить стойки, чем их охлаждать, но главное, где взять энергию, чтобы питать всю AI-систему.
И у одного стартапа из Денвера есть нестандартное решение — портативные модульные AI-дата-центры, которые можно размещать в самых нестандартных условиях. Компания пришла в ИТ из мира крипты: изначально она вела деятельность установкой майнинг-машин, которые брали энергию от попутного газа на нефтяных вышках.
Сегодня я расскажу вам о компании Crusoe — которая крайне нестандартно превращает энергию в вычислительную мощность. Разберем их бизнес-модель и поймем, что такое вертикально интегрированная AI-инфраструктура.

С чего все началось
При добыче нефти выделяется так называемый попутный нефтяной газ: обычно это метан, бутан, пропан-бутановые фракции, сероводород и прочие сочетания горючих веществ. Их добыча побочна, поэтому нефтяные компании предпочитают газ сжигать на факеле, поскольку строить и обслуживать инфраструктуру экономически невыгодно, плюс объемы газа часто нестабильны.
А вот Crusoe увидела в этом потенциал и на горящем газе построила первую бизнес-идею. Во время лихорадки майнинга электричество тоже было непросто достать: где-то из-за дефицита, в других местах из-за высоких тарифов или регуляторных требований.
Вместо того чтобы смотреть на попутный газ как на бесполезный побочный продукт, компания придумала превращать его в электричество прямо на месте, а рядом ставить модульные вычислительные мощности. Логика здесь была почти инженерно-очевидной: если энергию сложно привезти в город, можно доставить вычисления к энергии.
Так в Crusoe с самого начала сформировался важный принцип, который позже вытянул компанию в новую фазу: вычислительная инфраструктура не обязана стоять там, где уже все удобно, — ее можно организовать в полевых условиях. Правда, в Crusoe не сразу это поняли.
Механизм генерации энергии работал следующим образом: поток газа перехватывали от факела в отдельную трубу, которая питала газовые генераторы. Полученное электричество потребляли установленные неподалеку ASIC-майнеры: роторы крутились, биткоины… зарабатывались, а вместе с ними нефтяники получали дополнительную прибыль за аренду и использование инфраструктуры.
Crusoe изначально хотела заниматься криптовалютой, и в каком-то смысле у нее все получилось. Но эмиссия и халвинг (запланированное уменьшение вдвое субсидии за блок в сети Bitcoin, которое происходит каждые 210 000 блоков) биткоина беспощаден, а майнинг не вечен — модель не могла длиться слишком долго.
В Crusoe осознали, что их главный актив не ASIC и не крипторынок как таковой: в самой концепции газовых труб заложена ключевая ценность. Компания нащупала универсальную и крайне нестандартную компетенцию: научилась брать энергию в неудобной, удаленной точке, быстро собирать вокруг нее автономную вычислительную инфраструктуру и превращать все это в систему.
Майнинг просто оказался первой задачей, которая идеально легла на такую модель. Он был мобильным, терпимым к отдаленным площадкам и монетизировался сразу. Но сама логика бизнеса куда шире.
Ближе к буму AI рынок начал входить в новую фазу. Эпоха майнинга породила высокий спрос на вычисления, а после прихода ИИ он только резко усилился. Компаниям нужны GPU, облачные мощности и в целом инфраструктура под AI. С осознаваемой ценностью у Crusoe оказалось конкурентное преимущество.
Как упоминал в начале, развитие ИИ-индустрии упирается в дефицит электроэнергии. ЦОДы под AI потребляют колоссальные объемы электричества, буквально тераватты. США и Китай вкладывают огромные деньги в строительство и наращивание электрогенерирующих мощностей: в возобновляемую энергетику, невозобновляемую, в АЭС, ТЭС и так далее.
Для понимания масштаба: современный ИИ-ориентированный дата-центр потребляет столько же энергии, сколько 100 тысяч домохозяйств. Крупнейшие объекты, строящиеся сегодня (к примеру, StarGate), будут потреблять в 20 раз больше. По прогнозам Международного энергетического агентства, общее потребление ЦОДов в мире может превысить 1000 ТВт·ч к 2026 году, что сопоставимо с годовым потреблением всей Японии.
И размещать ЦОДы привычнее и сподручнее там, где есть удобный доступ к электричеству. Но из-за очереди, которую занимают еще до закладки фундаментов новых мощностей, проседает скорость развертывания дата-центров. А сейчас скорость важна, ведь мир буквально сходит с ума от темпов внедрения и обучения ИИ.
Так вот, Crusoe уже умеет быстро строить и вводить мощности там, где все упирается в энергию. И компания начала продавать то, чем в действительности занималась с самого начала, — способность стремительно превращать энергию в вычислительную инфраструктуру.
Наши дни
Сегодня Crusoe описывает себя как игрока в AI-инфраструктуре с многоступенчатым подходом: в ее нынешней модели есть сразу несколько уровней.
Снизу — энергетика и физическая инфраструктура.
Посередине — гипермасштабные AI-площадки и модульные дата-центры, которые можно быстро развернуть там, где это нужно заказчику.
Сверху — Crusoe Cloud: облачный слой с GPU, управляемыми сервисами для обучения и инференса (использования обученной ИИ-модели для обработки новых данных и выдачи результата), инструментами оркестрации, хранения и мониторинга.

Интересно еще и то, что Crusoe отрезала от себя старую криптовалютную идентичность: в 2025 году компания продала свой биткоин-бизнес крупному игроку — New York Digital Investment Group. В Crusoe заявили, что теперь фокусируются исключительно на AI-инфраструктуре.
Первый слой мы разобрали, а теперь копнем глубже — перейдем к актуальным продуктам.
Что именно Crusoe продает
Я внимательно изучил их проекты и выделил наиболее интересные. Перед вами своего рода айсберг по стартапу.
Crusoe Spark
Наиболее известный проект, который стал следствием газовых майнинг-ферм.
Компания взяла 12-метровый морской контейнер (который удобно перевозить и по воде, и по земле) и упаковала его в кусок дата-центра: в одном переносимом модуле уже есть питание, охлаждение, удаленный мониторинг, пожаротушение и стойки под современные GPU. То есть клиенту не нужно строить объект с нуля — он получает готовый вычислительный модуль, который можно быстро привезти, подключить и ввести в работу.
Развернуть такой модуль получится где угодно, и есть возможность строить кластеры из любого количества контейнеров. Spark работает с разными источниками питания и доступен через проводную или спутниковую связь.
Кому и в каких случаях это нужно?
В первую очередь тем, кому нужно ставить ЦОД ближе к месту спроса и к данным.
Закрыть потребности инфраструктуры для сценариев, где нельзя гонять все в далекий облачный регион: в автономном транспорте, промышленной аналитике, мониторинге в реальном времени, медицинских системах, умных городах и других граничный (edge)-задач.
Скорость развертывания модуля — от 3 до 6 месяцев, в отличие от 1,5–3 года на строительство обычного ЦОД. Один модуль (без GPU) стоит 1,5–2 млн долларов.
Самый конкретный публичный кейс — партнерство с Redwood Materials, лидером в области переработки литийионных аккумуляторов. В июне 2025-го они развернули систему в Неваде: Spark-модули питались от связки солнечной генерации и EV-аккумуляторов. Сейчас проект вырос с 4 до 24 Spark-модулей, а система, на которой это все стоит, показала 99,2% operational uptime, то есть она работает 99,2% всего времени в году (остальные 0,8% — допустимый простой, это примерно 2 дня и 22 часа).
Crusoe Cloud
Компания одна из немногих научилась находить ценность в предыдущей ценности: она не остановилась на концепции AI-модулей, а пошла дальше, по всей индустрии AI. Погружаемся в облачный слой бизнеса: сервис компании — для тех, кому нужны AI-вычисления, но при этом не хочется строить собственную площадку, закупать железо и самостоятельно собирать инфраструктуру.
Компания продает доступ к GPU-мощностям для обучения моделей, инференса, графики и для других тяжелых вычислений: она предлагает актуальные ускорители от NVIDIA и AMD, а работать с ними можно через консоль, API, CLI, Terraform и SDK.
Есть серьезное отличие от обычной аренды мощностей: Crusoe пытается продавать более собранную среду для больших AI-нагрузок. Через Managed Kubernetes, Managed Slurm и собственную оркестрацию можно разворачивать и масштабировать нагрузки на тысячах GPU, а сама платформа берет на себя часть операционной сложности и повышает отказоустойчивость. То есть клиент получает облачную среду, в которой можно запускать уже серьезные кластеры под обучение и нагрузку.
Поверх этого у Crusoe есть еще один более «готовый» уровень — Managed Inference. Здесь компания предоставляет сервис для запуска и масштабирования inference через API, беря на себя развертывание, обслуживание, безопасность и масштабирование, плюс проводит мониторинг состояния кластеров, GPU, сети, storage и стоимости.
Подробнее о масштабировании
Crusoe Managed Kubernetes — базовый управляемый слой для AI-кластера. Он дает готовый Kubernetes с fully managed control plane, node pools и нужными GPU-/network-addons вроде NVIDIA GPU Operator и Network Operator. Еще там есть AutoClusters — система, которая автоматически ловит типовые hardware-сбои и помогает заменять проблемные ноды, чтобы длинные AI-сценарии не рушились из-за одной больной машины.
Crusoe Managed Slurm — сервис уже для тех, кто гоняет большие сценарии обучения на множестве GPU. Crusoe построила его поверх своего Kubernetes-слоя, используя Slinky — официальный проект SchedMD для запуска Slurm в Kubernetes. Идея в том, чтобы совместить сильные стороны обоих миров: Slurm хорошо распределяет конечные batch-задачи по GPU-кластеру, а Kubernetes дает health checks, перезапуски, rolling updates и общую облачную управляемость. За счет этого Slurm у Crusoe получается не «сам себе админ», а managed-сервис с нормальной интеграцией в облачную платформу.
Command Center — единая панель эксплуатации всего этого хозяйства. Она показывает топологию кластера, загрузку GPU, CPU, памяти и сети, дает доступ к системным логам без SSH, экспортирует метрики в Grafana, Datadog или Splunk и автоматически шлет уведомления о проблемах в Slack, на почту или в webhooks. То есть технически связка выглядит так: Kubernetes — это базовый substrate, Slurm — планировщик для больших training-нагрузок, а Command Center — слой наблюдения, диагностики и ops-управления.
Огромные AI-центры
С накопленной экспертизой Crusoe научилась возводить «цехи» промышленного масштаба для AI-нужд. Есть флагманский проект в Абилине, штат Техас.
Сначала там построили объект на 200+ МВт, а затем расширили его до восьми зданий, примерно 371 тысячи кв. метров и 1,2 ГВт мощности. В марте 2026-го компания анонсировала строительство кампуса по соседству на 900 МВт для нужд Microsoft. В сумме площадка в Абилине должна вырасти примерно до 2,1 ГВт. К слову, проект связан со Stargate.
Помещения кампусов изначально рассчитаны на нестандартно плотную установку GPU-стоек, проекты под так называемые high energy-density AI hardware, то есть под нагрузки, где на один зал приходится намного больше тепла, электричества и сетевого трафика, чем в классическом дата-центре.

Здания снабжает собственный энергокомплекс. В частности, в кампусе Microsoft будут использовать батарейную систему MV BESS. Это высоковольтная промышленная система накопления энергии на базе аккумуляторных батарей, благодаря ей можно выравнивать нагрузку в пиковые периоды или при нестабильности внешней сети.
Не обходится и без систем охлаждения нового типа: учитывая плотность размещения GPU, кроме воздушного охлаждения, используются технологии прямого водяного охлаждения чипа и теплообменники задней двери (RDHx).
Почему Crusoe вообще стала нужна рынку и где ее слабые места
С точки зрения бизнеса компания пытается выстроить модель заработка сразу в нескольких точках одной цепочки: строить большие AI-кампусы, выпускать модульные Spark-блоки, продавать GPU-мощности через Crusoe Cloud и сверху брать еще маржу на managed-сервисах для обучения и инференса.
Сама Crusoe называет это вертикально интегрированной AI-инфраструктурой. Компания комплексно ищет и организует энергию, строит AI-дата-центры и управляет ими, а сверху дает облачную AI-платформу.
В этом смысле перед нами крайне необычный (если не сказать уникальный) игрок AI-индустрии. По состоянию на октябрь 2025 года компания сообщала, что ее общая электрическая инфраструктура выросла более чем в четыре раза и превысила 45 ГВт, а аренда Crusoe Cloud за первые три квартала 2025 года увеличивалась в пять раз год к году.
В том же 2025 году компания получила инвестиций на 1,375 млрд долларов (Series E) при оценке свыше 10 млрд. Суммарно за все раунды ей удалось привлечь 3,9 млрд долларов. Кроме того, на сегодняшний день в распоряжении компании больше 90 гектаров территории и расчетная емкость до 946 тыс. GPU.
Но у компании есть ахиллесова пята, о которой я намеренно умолчал в начале статьи. С первых дней позиционирование бизнеса строилось на климатическом и эконарративе: не сжигать впустую природный газ, а превращать его в вычисления, заодно уменьшая углеродный след. И экологическая повестка серьезно сыграла на пиаре в СМИ, что помогло стартапу приобрести репутацию и доброе имя.
Сегодня же компания все глубже входит в мир гигантских AI-кампусов, где речь строительстве новой тяжелой инфраструктуры под взрывной спрос на ИИ. И тут экологи бьют тревогу по нескольким причинам: от перерасхода водных ресурсов на охлаждение до загрязнения планеты из-за избыточного спроса на редкоземельные элементы и небывалых масштабов отработки и утилизации серверного оборудования.
Весной это года Crusoe объявила о двух соглашениях. Первое — с Form Energy на 12 ГВт·ч с использованием батарей, второе — с проектом Goodnight о строительстве кампусной инфраструктуры, которая частично будет работать на природном газе. Crusoe не отказывается от зеленой повестки, но в масштабных строительствах и проектах многие видят экологическую угрозу.
В ближайшие несколько лет такие компании, как Crusoe, скорее всего, будут только усиливатьcя или расти. Ведь они уже отошли от задачи, чем их «облако лучше конкурента», и пытаются придумать, как быстро превратить доступную энергию в работающую AI-инфраструктуру. И если нынешний темп сохранится, рынок будет все сильнее ценить земля, power, охлаждение сетей и готовых площадок для внедрения GPU.
Но у сценария есть и обратная сторона.
Чем сильнее AI будет упираться в физическую инфраструктуру, тем меньше в нем останется легкого «облачного» мифа и тем больше будет конфликтов вокруг энергии, воды, газа, земли и локальной экологии. По данным Международного энергетического агентства, до 2030 года почти половину дополнительного спроса дата-центров смогут закрыть возобновляемые источники энергии, но при этом значимую часть роста обеспечат природный газ и уголь.
Поэтому мой прогноз такой: Crusoe и похожие игроки будут расти, но одновременно станут объектом все более жесткого внимания — и со стороны регуляторов, и со стороны экологов, и даже со стороны рынка, который начнет спрашивать уже не только «сколько у вас GPU», но и «какой ценой для энергосистемы вы все это построили».
