На конференции GTC 2026 Nvidia показала новый тип серверных стоек — LPX, в которых 256 чипов Groq 3 LPU работают в связке со стойками Vera Rubin NVL72. Это первый случай, когда Nvidia интегрирует сторонний процессор в свою платформу. Технологию Groq компания получила в конце 2025 года в рамках сделки на $20 млрд, вместе с основателем Groq Джонатаном Россом и президентом Санни Мадрой.

Идея в разделении труда: GPU Rubin обрабатывают входящие промпты (этап prefill), а LPU от Groq берут на себя генерацию токенов (этап decode). Пропускная способность SRAM-памяти у Groq 3 достигает 150 TB/s на чип — это почти в 7 раз больше, чем 22 TB/s у HBM4-памяти в GPU Rubin. Каждый LPU выдает 1,2 петафлопса в FP8, но вмещает всего 500 МБ памяти — примерно в 500 раз меньше, чем у Rubin GPU. Поэтому их и нужно 256 штук в одной стойке, а для моделей с триллионом параметров — несколько стоек.

Стойки LPX подключаются к NVL72 через интерконнект Spectrum-X. По словам Яна Бака, вице-президента Nvidia по гиперскейлу, связка позволяет обслуживать модели с триллионом параметров на скорости в тысячи токенов в секунду на пользователя. При этом LPU пока не поддерживают CUDA нативно — они работают как ускоритель к платформе Vera NVL72.

Интеграция LPU фактически заменила собственный проект Nvidia — процессор Rubin CPX, анонсированный на Computex в прошлом году. От него отказались в пользу подхода Groq. Nvidia рассчитывает, что провайдеры инференса смогут брать за «премиальные токены» до $45 за миллион — втрое больше, чем нынешние $15 у OpenAI за модель GPT-5.4.

Nvidia — не единственная, кто идет этим путем. В пятницу AWS объявила о похожей связке: ускорители Trainium 3 для prefill и SRAM-чипы Cerebras WSE-3 для генерации токенов. Разделение инференса на две стадии с разным железом может превратиться из эксперимента в индустриальный тренд.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.