
OpenAI заключила сделку с производителем чипов Cerebras на сумму более $10 млрд. По условиям соглашения, компания получит до 750 мегаватт вычислительных мощностей в течение трех лет — они будут вводиться поэтапно до 2028 года. Cerebras станет частью инфраструктуры для инференса — то есть для генерации ответов ChatGPT и других продуктов OpenAI.
"Интеграция Cerebras — это про скорость, — объясняют в OpenAI. — Когда вы задаете сложный вопрос, генерируете код или запускаете ИИ-агента, за кулисами происходит цикл: запрос, обработка, ответ. Когда ИИ отвечает в реальном времени, пользователи делают больше, остаются дольше и запускают более ценные задачи".
Cerebras — нетипичный производитель чипов. Вместо того чтобы нарезать кремниевую пластину на сотни отдельных процессоров, компания использует всю пластину целиком как один чип. Текущее поколение WSE-3 имеет площадь около 46 000 мм² — это примерно в 57 раз больше Nvidia H100. Такая архитектура устраняет главное узкое место инференса: данным не нужно путешествовать между чипами и внешней памятью, потому что всё находится на одном куске кремния.
Для OpenAI это часть стратегии диверсификации. Компания уже использует GPU разных поколений от Nvidia и AMD, облачные TPU от Google, консультирует Microsoft по разработке чипа Maia и проектирует собственные процессоры совместно с Broadcom. Cerebras добавляет в этот портфель специализированное решение для задач, где критична минимальная задержка.
Сделка приходится на момент консолидации рынка: три недели назад Nvidia поглотила главного конкурента Cerebras — стартап Groq — за $20 млрд. После этого Cerebras фактически остается последним крупным независимым производителем чипов для быстрого инференса.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.
