2025 год обещал стать переломным для персонального ИИ. «Это ренессанс персонального компьютера», — заявил CEO Nvidia Дженсен Хуанг, представляя вместе с главой HP ноутбуки, способные тренировать и запускать большие языковые модели локально. Microsoft установила планку в 16 ГБ RAM как минимум для Copilot+ PC и развернула Windows AI Foundry Local — каталог open-source моделей для локального запуска. Lenovo выпустила AI Now — агента на базе Llama 3, работающего полностью на устройстве. Аналитик�� Canalys прогнозировали, что в 2025 году поставки AI PC превысят 100 миллионов штук — 40% всего рынка.

Реальность оказалась иной. По данным TrendForce, в первом квартале 2026 года цены на память продолжат резко расти, и производители смартфонов и ноутбуков вынуждены не повышать, а снижать спецификации. Бюджетные смартфоны вернутся к 4 ГБ оперативной памяти — уровню, который был стандартом десять лет назад. Моделей с 12 ГБ станет на 40% меньше, а флагманы с 16 ГБ практически исчезнут. В сегменте ноутбуков Dell и Lenovo рассматривают возврат к 8 ГБ как базовой конфигурации для среднего класса.

Парадокс в цифрах выглядит так: Microsoft требует 16 ГБ для Copilot+, а рынок движется к 8 ГБ. Один серверный рэк Nvidia GB300 NVL72 потребляет около 20 ТБ памяти HBM3E и 17 ТБ LPDDR5X — в сумме этого хватило бы на десятки тысяч смартфонов. И таких рэков в ИИ-дата-центрах — тысячи.

Производители ищут обходные пути. TrendForce отмечает вероятный возврат слотов microSD в смартфоны — как способ компенсировать дорогое встроенное хранилище. Apple еще в 2023 году опубликовала исследование «LLM in a Flash» о запуске языковых моделей с флеш-памяти вместо RAM — теперь эта технология может оказаться востребованной. Но пока это скорее костыли: эра «ИИ для всех» на локальных устройствах откладывается — память уходит в дата-центры, которые этот ИИ и создают.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.