Всем привет! Недавно мы обсуждали рынок AI-инфраструктуры с моим коллегой Александром. В компании OpenYard он отвечает за развитие отношений с вендорами и выстраивание цепочек поставок. Нам быстро стало понятно, что за громкими заявлениями об AI-революции скрывается куда более сложная и не всегда очевидная экономика. Компании массово инвестируют в обучение моделей, строительство дата-центров и AI-кластеров, растет спрос на GPU, ускорители и серверную инфраструктуру. На этом фоне кажется логичным ожидать аналогичного роста со стороны производителей памяти ― одного из ключевых компонентов AI-систем. Однако реальность оказывается сложнее.
Два крупнейших поставщика DRAM: Samsung Electronics и SK Hynix, которые в совокупности контролируют более 70% мирового рынка оперативной памяти, неожиданно ведут довольно сдержанную игру. Несмотря на рекордный спрос со стороны AI-сегмента, компании не планируют резкого расширения производства. Почему рынок, испытывающий дефицит, сознательно отказывается от масштабирования?
Рост спроса и дефицит DRAM: что происходит на рынке
В 2024-2025 годах рынок серверной памяти столкнулся с резким ростом цен. Основные драйверы хорошо известны:
активное строительство AI-кластеров и гиперскейл-дата-центров,
рост потребления HBM и высокоплотной серверной DRAM,
ограниченные производственные мощности после периода сокращений.
По оценкам корейского издания Hankyung, текущий дефицит памяти может сохраниться как минимум до 2028 года. При этом рост цен на DRAM уже начал напрямую влиять на экономику серверных решений и TCO инфраструктурных проектов.
Важно отметить, что рост цен на память во многих случаях опережает рост цен на серверы как конечный продукт, снижая маржинальность интеграторов и OEM-производителей.
Концентрация рынка как фактор стратегии
Рынок DRAM традиционно высоко концентрирован:
Samsung Electronics ― около 40-45%,
SK Hynix ― около 25-30%,
Micron ― около 20-25%,
прочие игроки ― менее 10%.
В такой структуре даже небольшие изменения в стратегии крупнейших поставщиков оказывают существенное влияние на глобальный рынок. Фактически производители обладают возможностью управлять темпами предложения, избегая резких ценовых колебаний.
Именно в этом контексте становится понятна осторожность: контролируемый дефицит оказывается выгоднее, чем агрессивное расширение мощностей с риском обвала цен в будущем.
Почему производители не увеличивают выпуск, несмотря на дефицит
Несмотря на благоприятную рыночную конъюнктуру, Samsung и SK Hynix публично подчеркивают приоритет долгосрочной устойчивости, а не краткосрочного роста объемов.
1. Риск перепроизводства
История рынка DRAM циклична. Периоды бурного роста часто заканчивались перепроизводством и резким падением цен, что приводило к миллиардным убыткам. Производители хорошо помнят эти сценарии и не готовы повторять их в условиях неопределенности.
2. Неопределенность AI-спроса
Хотя текущий спрос со стороны AI-инфраструктуры выглядит устойчивым, производители не считают его гарантированным на горизонте 5-7 лет.
Часть инвестиций в AI сегодня носит экспериментальный характер, а бизнес-модели многих проектов еще не доказали долгосрочную окупаемость. Это заставляет поставщиков базовых компонентов действовать осторожно.
3. Долгий инвестиционный цикл
Строительство и запуск новой фабрики DRAM ― это инвестиции порядка $10-20 млрд, срок ввода в эксплуатацию 3-5 лет и высокая зависимость от будущего спроса. Ошибки в прогнозах слишком дорого обойдутся.
Отложенный эффект пандемии
Дополнительным фактором стал наследственный эффект пандемии COVID-19. В 2020-2022 годах производители памяти были вынуждены:
сокращать CAPEX,
консервировать или замедлять производственные линии,
откладывать расширение мощностей.
Эти решения принимались в условиях неопределенного спроса и были экономически оправданы на тот момент. Однако сегодня рынок развернулся, а производственные мощности оказались физически ограничены.
Даже при наличии капитала и спроса быстро нарастить выпуск невозможно ― полупроводниковая индустрия не работает в квартальных циклах.
Память как узкое место AI-инфраструктуры
Для AI-нагрузок память играет критическую роль. Современные модели требуют больших объемов DRAM, высокой пропускной способности и минимальных задержек. В типовой конфигурации AI-сервера 2025 года память (DRAM + HBM) может составлять 20-30% стоимости BOM, уступая по доле только GPU и ускорителям.
Рост цен на память напрямую отражается на стоимости AI-кластеров, сроках окупаемости проектов и доступности инфраструктуры для средних и небольших заказчиков.
Последствия для рынка серверных решений
Для заказчиков, интеграторов и производителей серверов это означает несколько практических изменений:
переход поставщиков памяти на краткосрочные контракты с гибкой ценой,
ограничение доступных конфигураций серверов,
рост сроков поставки компонентов,
необходимость более точного планирования емкости RAM под реальные профили нагрузки.
Для производителей серверного оборудования это приводит к смещению фокуса на оптимизацию конфигураций под конкретные задачи, баланс между производительностью и стоимостью и консультационную работу с заказчиком еще на этапе проектирования.
Почему некоторые аналитики говорят об AI-пузыре: взгляд через CAPEX
Отдельно стоит остановиться на том, почему всё чаще звучат разговоры о возможном «пузыре» вокруг искусственного интеллекта. Речь идет не о технологиях как таковых, а об экономике текущих инвестиций.
Один из ключевых аргументов аналитиков связан с CAPEX крупнейших технологических компаний, активно инвестирующих в AI-инфраструктуру. За последние годы бигтех закупил огромные объёмы GPU-серверов и оборудования для дата-центров, резко увеличив капитальные затраты.
При этом для сглаживания финансовой отчётности используется вполне легальная, но показательная бухгалтерская практика: срок амортизации AI-оборудования увеличивается с привычных 3 лет до 5-6 лет. Формально это позволяет «размазать» стоимость инвестиций по времени и н�� показывать резкое падение прибыли в краткосрочной перспективе.
Проблема в том, что такая модель плохо сочетается с реальностью рынка.
Генеральный директор NVIDIA Дженсен Хуанг уже открыто говорит о ежегодном цикле обновления AI-ускорителей. Новые поколения чипов становятся заметно быстрее и энергоэффективнее, а оборудование, купленное всего 2-3 года назад, перестаёт быть конкурентоспособным для обучения передовых моделей.
В результате возникает структурное противоречие:
оборудование учитывается в балансе как актив, который должен окупаться 5-6 лет,
фактически же через 2-3 года оно уже не может эффективно использоваться для топовых AI-нагрузок,
дата-центры оказываются заполнены морально устаревшими серверами, которые сложно загрузить задачами с высокой добавленной стоимостью.
Если при этом выручка от AI-сервисов не растет пропорционально инвестициям, компании сталкиваются с риском: на балансе остаются крупные активы, которые придется списывать в убытки.
Именно эта разница между понесенными затратами и реальной способностью инфраструктуры генерировать доход и лежит в основе разговоров о возможном AI-пузыре. В этом контексте нежелание производителей памяти заранее масштабировать выпуск выглядит логичным: расширение мощностей под потенциально избыточный спрос может привести к тем же проблемам с окупаемостью, но уже на стороне поставщиков компонентов.
Прогноз: что ждать до 2027–2028 годов
По оценкам отраслевых аналитиков и профильных медиа:
дефицит DRAM и HBM сохранится как минимум до 2027-2028 г.,
расширение производственных мощностей будет происходить плавно и строго контролируемо.
Это означает, что фактор памяти останется одним из ключевых ограничений для масштабирования AI-инфраструктуры в ближайшие годы.
Поведение крупнейших производителей памяти показывает: внутри индустрии нет полной уверенности в долгосрочной устойчивости текущего AI-бума.
Пока публичный дискурс говорит о «новой технологической эпохе», поставщики ключевых компонентов действуют консервативно, ориентируясь на управляемый рост и прибыльность.
Для рынка серверной инфраструктуры это означает одно: память остаётся стратегическим ресурсом, а ее доступность и стоимость становятся критически важными при проектировании AI-систем.
Интересно, как эта ситуация выглядит с вашей стороны. Уже приходится пересматривать конфигурации серверов из-за стоимости или доступности памяти?
Давайте обсудим в комментариях ― опыт практиков здесь особенно ценен.
P.S. Спасибо за интересный разговор и экспертизу @Alex621
Источник: Wccftech
