
Комментарии 6
Вот это щедрость! Целых +4Гб. Лишь бы не давать рядовым пользователям локально запускать ИИ модели.
AMD в данном случае решает задачу конкуренции с RTX 5070 и закрытия разрыва между RX 9060 XT и RX 9070. Под задачи ИИ эта линейка изначально не предназначалась.
А что на 16 гб нельзя локально запустить ИИ? Некоторые модели и на меньшем количестве неплохо себя чувствуют.
Можно, если это компактные текстовые или мультимодальные модели. LLaMA 2-7B или Mistral-7B в квантованных версиях спокойно помещаются в 12–14 Гбайт. Но если запускать полноценную LLM и нейросеть для генерации изображений в высоком разрешении - потребуется больше памяти. Тут уже 16 Гбайт станет ограничением. Большие модели, как LLaMA 13B+, Falcon 40B и современные GPT-клоны, требуют уже 48 Гбайт и даже больше. Те же Stable Diffusion 1.5 и Stable Diffusion XL (SDXL) в 8-битных/оптимизированных сборках запускаются на 16 Гбайт, но для комфортной работы с SDXL лучше иметь 20+ Гбайт памяти.
Так можно сказать что и 400 гиг маловато, ведь тот же ДипСик требует 500+
Да, есть модели, которые требуют сотни гигабайт видеопамяти - как тот же DeepSeek. Но это уже исследовательский класс, который запускается на кластерных системах, а не на потребительских видеокартах. Это другой уровень. В потребительском сегменте речь все же идет про запуск компактных моделей, где 16 Гбайт - это нижняя граница, а для комфортной работы лучше иметь 24 Гбайт.
AMD готовит обновленную версию видеокарты Radeon RX 9070 GRE с 16 Гбайт видеопамяти