Обновить

Комментарии 6

Вот это щедрость! Целых +4Гб. Лишь бы не давать рядовым пользователям локально запускать ИИ модели.

AMD в данном случае решает задачу конкуренции с RTX 5070 и закрытия разрыва между RX 9060 XT и RX 9070. Под задачи ИИ эта линейка изначально не предназначалась.

А что на 16 гб нельзя локально запустить ИИ? Некоторые модели и на меньшем количестве неплохо себя чувствуют.

Можно, если это компактные текстовые или мультимодальные модели. LLaMA 2-7B или Mistral-7B в квантованных версиях спокойно помещаются в 12–14 Гбайт. Но если запускать полноценную LLM и нейросеть для генерации изображений в высоком разрешении - потребуется больше памяти. Тут уже 16 Гбайт станет ограничением. Большие модели, как LLaMA 13B+, Falcon 40B и современные GPT-клоны, требуют уже 48 Гбайт и даже больше. Те же Stable Diffusion 1.5 и Stable Diffusion XL (SDXL) в 8-битных/оптимизированных сборках запускаются на 16 Гбайт, но для комфортной работы с SDXL лучше иметь 20+ Гбайт памяти.

Так можно сказать что и 400 гиг маловато, ведь тот же ДипСик требует 500+

Да, есть модели, которые требуют сотни гигабайт видеопамяти - как тот же DeepSeek. Но это уже исследовательский класс, который запускается на кластерных системах, а не на потребительских видеокартах. Это другой уровень. В потребительском сегменте речь все же идет про запуск компактных моделей, где 16 Гбайт - это нижняя граница, а для комфортной работы лучше иметь 24 Гбайт.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости