Комментарии 15
33b? На реддите уже извратились до запуска 685b с маппингом на NVME SSD и 127 gb ОЗУ. Без видеокарт и монструозных материнок.
Дай пожалуйста ссылку, что бы не тратить время на поиски. Спасибо!
Скорее всего имеется ввиду https://www.reddit.com/r/LocalLLaMA/comments/1idseqb/deepseek_r1_671b_over_2_toksec_without_gpu_on/
Он использовал Gen 5 NVMe накопители. А оперативку (96Gb) только под кэш. Нужно посмотреть сколько она RAM жрет и попробовать засунуть все в оперативку вместо SSD, а кеш в ускоритель и посмотреть, что получится. Думаю раз в 10 будет быстрее
А тут как сделали, интересно?
OpenAI's nightmare: Deepseek R1 on a Raspberry Pi.
https://www.youtube.com/watch?v=o1sN1lB76EA
Всё гораздо проще. Устанавливаете ollama (есть гуй для виндоуса), запускаете нужную модельку https://ollama.com/library/deepseek-coder:33b используете через openai совместимый интерфейс.
С этой оламой что-то не так.
Запускаем ollama run deepseek-r1:1.5b и начинает какие-то смешные 1G качать бесконечно, вторые сутки пошли, занимательно то что ползунок прогресса то увеличивается то уменьшается, притом трафик показывает около 20Mbs.
Никогда такого не видел. На компе с дебианом в хетцнере скачал со свистом, но там нет видеокарты. А на домашнюю убунту-24 такие вот фокусы.
Тут анонс платформы Gigabyte прошел (https://habr.com/ru/companies/hostkey/articles/878364/), с 48 сокетами под RAM и пропускной способностью 2,7 ГБ, это конечно раз в 10 медленнее ускорителей, но за счет того что модель будет лежать в одном месте, получается почти в два раза быстрее, чем на кластере из 32 штук 4090 и гораздо дешевле.
GPU ( 32x RTX 4090):
INT8: ~1–5 токенов в секунду.
---
32x RTX 4090 - 48 000
минимум 8 серверов по 4 карты минимум 24 000$
---
~72 000 $
Если пересчитать с 12 * A6000, будет еще дороже
Про 10 А100/H100 даже писать страшно, там уже полмиллиона+ будет и это для INT8, для FP16 умножаем примерно на 3) Будет конечно быстрее чем в оперативке)
1 ТБ RAM:
FP16: Невозможно.
INT8: 7–10 токенов в секунду.
3 ТБ RAM:
FP16: 4 –7 токена в секунду.
INT8: 14–20 токенов в секунду.
---
GIGABYTE R283-ZK0-AAL1 - 7 339,00 $
3 ТБ RAM - 15000 $
AMD EPYC 9274 - 2 * 2 255,00 $
---
~ 25000 - 26000
Чем vllm не устроил?
https://github.com/deepseek-ai/local-runtime.git
Видимо уже убрали из public: fatal: repository 'https://github.com/deepseek-ai/local-runtime.git/' not found
fatal: репозиторий «git@github.com/deepseek-ai/local-runtime.git» не существует
ну так надо написать инструкцию для https://github.com/deepseek-ai/DeepSeek-V3
Устанавливал локально в docker deepseek-r1:7b
Тупой как пробка, даже не знает как зовут Пушкина - говорит Fyodor,
Как сделать локальное развертывание DeepSeek. Пошаговое руководство для разработчиков