Спрос на H100 и H200 вырос в 75 раз: Рег.облако открыло GPU-кластер в новом московском ЦОД
Рег.облако разместило GPU-кластеры в московском дата-центре DataHouse «Магистральный-1». DataHouse проектировал площадку с запасом по энергетике и охлаждению — GPU-серверы греются и потребляют электричество совсем не так, как обычные вычислительные стойки.
Новую площадку Рег.облако открыло под растущий спрос: бизнес перешел с H100 и H200 как инструмента для экспериментов на промышленное использование. За последний год спрос на эти чипы в Рег.облаке вырос в 75 раз — с почти нулевых значений. Сейчас на H100 и H200 приходится около 70% всего спроса на GPU для задач с большими языковыми моделями.
Драйвером стали не новинки, а их отсутствие. Флагманские B200 и B300 в Россию практически не поступают, а H100/H200 после анонса нового поколения подешевели и заняли нишу рабочей лошадки для ИИ. Покупать такие серверы самостоятельно по-прежнему тяжело. Аренда у провайдера для большинства выходит дешевле и быстрее.
С подключением «Магистрального-1» у Рег.облака теперь 11 собственных и партнерских дата-центров уровня Tier III в нескольких регионах. Суммарная мощность — 85,5 МВт, 10 420 серверных стоек.
Вы когда-нибудь чувствовали себя заложником собственных расчетов? Когда бизнес говорит: «Это невозможно просчитать», — на самом деле он редко имеет в виду «нет идей». Чаще всего это значит: «У нас нет вычислительного бюджета, чтобы умереть от скуки, ожидая ответ».
Логистика, расписания, раскрой листов, планирование производства, биржевые портфели. Везде, где есть слово «оптимизация», прячется монстр NP-трудности. Количество вариантов растет быстрее, чем количество кофе в офисе, и любая команда рано или поздно машет рукой: «Сойдет и так».
Пока одни умные люди спорят о том, кто первый докажет превосходство квантовых компьютеров, а другие вкладывают миллиарды в установки размером с бассейн (которые, кстати, заработают «лет через десять»), мы поступили проще и наглее.
Мы спросили: а зачем нам ждать? Математические принципы квантовых алгоритмов — суперпозицию и интерференцию — можно не эмулировать с точностью до электрона. Их можно использовать как вдохновение для поиска решений. А в качестве железа взять то, что уже стоит под столом у каждого второго инженера. Видеокарту.
Так родился AGIQ Solver Enterprise. Солвер, который не ждет квантового будущего, а просто берет и решает задачи здесь и сейчас, на вашей GPU.
Почему GPU, а не коробка с кубитами?
Квантовые алгоритмы — это красивая метафора мышления. Вместо тупого перебора «по одному», ты работаешь с распределением вероятностей, усиливая хорошие варианты и гася шум. Проблема в том, что для запуска этого в оригинале нужен хрупкий и дорогой квантовый компьютер, который боится сквозняков.
Но оглянитесь. У вас на столе уже лежит устройство, которое умеет делать миллионы однотипных операций одновременно. Оно создано для того, чтобы считать пиксели в 4K, но по сути это математический монстр. Видеокарта идеально подходит для популяционных алгоритмов, где нужно одновременно мурыжить тысячи кандидатов.
Мы не строим «квантовый компьютер в видеокарте». Мы говорим: «Ребята, давайте использовать квантовую логику как инженерный прием, а считать всё будет добрый старый GPU».
AGIQ: Эволюция на стероидах
Наш солвер берет NP-трудную задачу (будь то SAT, MaxSAT, расписание или логистика) и начинает с ней работать не как классический алгоритм, который бредет по дереву решений, спотыкаясь на каждом шаге.
Классика — это как идти по лабиринту с ниточкой. Надежно, но медленно. AGIQ — это выпустить в лабиринт тысячу мышей одновременно. Они шумят, мешаются, находят тупики, но те, кто нашел сыр, передают сигнал остальным.
В нашей терминологии это называется «популяция кандидатов». GPU параллельно оценивает каждого, отсеивает слабых, смешивает сильных и через механизм коллективной динамики (мы это скромно называем «интерференционно-подобная синхронизация») концентрирует усилия на самых вкусных областях пространства.
Честный разговор: Это не магия, это инженерия
Давайте без стартап-трепа. Мы не доказали P=NP. Мы не умеем сворачивать пространство в трубочку. Если вы дадите нам задачу, где вариантов больше, чем атомов во вселенной, за секунду мы её не решим.
Бенчмарк, чтобы было не скучно Возьмем классическую задачу Max-3SAT. Допустим, 64 переменные и 20 тысяч условий. На RTX 3090 AGIQ перемалывает это примерно за 45 секунд. Можно ли быстрее? Можно. Но тут как с супом: если греть на максимальном огне, можно и пригореть. Мы подбираем параметры так, чтобы баланс скорости и качества был честным.
P.S. Про ключи. Для тех, кто хочет просто «пощупать» — коммерческие цены могут испугать. Но для пилотов и тестирования мы даем доступ бесплатно. Потому что нам важнее, чтобы вы убедились в пользе, а не отшатнулись от ценника. Приходите, сломайте наш солвер своими данными. Будет весело.
2026 год начался с инфраструктурных обновлений. В январе мы сосредоточились на сервисах для работы с данными, облаком и выделенными серверами, а также выпустили новые материалы и кейсы. Ниже — ключевые новости месяца.
Запустили сетевые диски в облаке
В Рег.облаке появились сетевые диски — облачное блочное хранилище, которое подключается к виртуальным серверам как обычный диск и позволяет управлять данными независимо от вычислений. Сетевые диски уже доступны в личном кабинете Рег.облака.
Выпустили исследование по GPU Bare Metal
Мы также подготовили исследование о рынке выделенных GPU-серверов (Bare Metal) и спросе на dedicated-серверы с видеокартами для AI, ML и VDI-сценариев. Если работаете с высокопроизводительными нагрузками — рекомендуем заглянуть в раздел dedicated GPU на сайте Рег.облака.
Обновили линейку выделенных CPU
Мы снизили цены на тарифы «Выделенные CPU». Обновилась стоимость за ядро процессора — теперь пользователи могут точнее планировать бюджеты для сервисов с предсказуемой нагрузкой и длительным временем работы. Выбрать тариф можно в личном кабинете Рег.облака.
Добавили резервное копирование для dedicated-серверов
Пользователи Рег.облака теперь могут протестировать услугу резервного копирования для выделенных серверов. Бэкапы можно настраивать и управлять ими напрямую через интерфейс облака — без сторонних инструментов и ручной настройки. Протестировать бэкапы можно в личном кабинете.
Обновили блог Рег.облака
Мы доработали раздел авторов в блоге: переработали дизайн разводящей страницы и добавили поиск. Читать и находить технические материалы стало удобнее — заходите, если давно не заглядывали.
Поделились кейсами
В январе мы проверили, как open-source LLM ведут себя в реальном сценарии автоматизации юридических документов — на примере эксперимента Рег.облака и Raft. В материале — архитектура решения, инфраструктурные ограничения и выводы для ML- и data-команд.
И это только начало нового продуктивного рабочего года! Дальше — больше обновлений, релизов и прикладных материалов. Спасибо, что следите за развитием Рег.облака.
GPU для сверточных нейросетей и быстрой обработки данных
В среду, 11 декабря, подключайтесь к бесплатному онлайн-митапу от сообщества C++ Russia. В программе всего два доклада — трансляция начнется в 17:00.
«Свертка на GPU и увеличение ее размерности»
Рассказывает: Кирилл Колодяжный (@Mik42), ведущий инженер по разработке ПО, YADRO
Вы познакомитесь с понятием свертки и ее доступными реализациями для NVIDIA GPU. Вместе с докладчиком рассмотрите различные алгоритмы расчета свертки: наивный алгоритм, FFT, GEMM (im2col/col2im), Winograd. Основное внимание уделим тому, как увеличить размерность свертки, так так сейчас наиболее распространена 3D-свертка.
Кирилл покажет простой подход к увеличению размерности с использованием PyTorch и расскажет, почему он не подошел. Также он поделится деталями реализации подхода на основе vol2col, расскажет, как тот позволяет масштабировать размерности и использовать быстрые реализации базовой операции GEMM с использованием cuBLAS и CUTLASS.
«GPU для ускорения фреймворка обработки слабоструктурированных данных Otterbrix: технологии, массивы и производительность»
Александр Боргардт, техлид DuckStax
Доклад посвящен ускорению обработки колоночных данных с использованием видеокарт. Александр рассмотрит применение GPU для оптимизации работы с массивами данных, характерных для фреймворка. Особое внимание уделим сравнительному анализу технологий CUDA и OpenCL с точки зрения их эффективности и применимости в данной области. Сравним производительность подходов в нескольких бенчмарках.
Особенно полезен доклад исследователям и специалистам в области высокопроизводительных вычислений, заинтересованных в использовании GPU для обработки больших объемов данных.
Кому подойдет митап: Организаторы ожидают, что участники понимают и могут читать код на С++. Если вы никогда не программировали GPU, на открытии будет введение в технологию.
Митап пройдет онлайн на платформах YouTube и VK Видео:
Наш эксперт Руслан Андреев расскажет про собственную методологию анализа производительности и оценки применимости различных моделей GPU в задачах искусственного интеллекта. А еще покажет пример использования этой технологии и подведет итог — в каких ситуациях подойдет потребительский GPU, а когда лучше использовать Data Center GPU.
Приходите послушать выступление и обсудить тему в неформальной обстановке.
Была у меня когда-то мечта идиота — собрать мега-супер-дупер-проект типа «SETI@home», но только в области метеорологии. Чем видеокарте простаивать, почему бы не поставить на обработку показания какой-нибудь китайской домашней метеостанции, да ещё и делиться с соседями, а ещё потом выкинуть по мажоритарному принципу криворучек, поставивших термометр на солнцепёке, а потом вообще дорасти до целого метео-ботнета, который сможет более-менее точно предсказывать погоду хотя бы на пару дней вперёд (каждый считает погоду для себя, но данными и промежуточными вычислениями активно обмениваются…)
И тут, откуда ни возьмись, появились криптовалюты.
Сейчас, когда майнить на видео (без асиков) практически не окупает затраченную электроэнергию, я уже стар для таких всплесков энтузиазма, поэтому дарю идею первому, кто поднимет руку. И да, сейчас не грех и нейросеть прикрутить к обработке показаний датчиков, это тоже плюс по сравнению с «тогда».