Как стать автором
Обновить

Как сделать локальное развертывание DeepSeek. Пошаговое руководство для разработчиков

Уровень сложностиСредний
Время на прочтение2 мин
Количество просмотров18K
Всего голосов 8: ↑4 и ↓40
Комментарии15

Комментарии 15

Скорее всего имеется ввиду https://www.reddit.com/r/LocalLLaMA/comments/1idseqb/deepseek_r1_671b_over_2_toksec_without_gpu_on/

Он использовал Gen 5 NVMe накопители. А оперативку (96Gb) только под кэш. Нужно посмотреть сколько она RAM жрет и попробовать засунуть все в оперативку вместо SSD, а кеш в ускоритель и посмотреть, что получится. Думаю раз в 10 будет быстрее

Там дистилят запускают 14B параметров на основе Qwen, это не полная модель.

С этой оламой что-то не так.

Запускаем ollama run deepseek-r1:1.5b и начинает какие-то смешные 1G качать бесконечно, вторые сутки пошли, занимательно то что ползунок прогресса то увеличивается то уменьшается, притом трафик показывает около 20Mbs.

Никогда такого не видел. На компе с дебианом в хетцнере скачал со свистом, но там нет видеокарты. А на домашнюю убунту-24 такие вот фокусы.

Тоже столкнулся с такой проблемой в начале, но олама тут не причём. Просто не нужно преключаться во время загрузки или если переключаешься то тыкни по окну powershell или нажми любую клавишу чтобы оно снова вернулось в повершел. Оно типо загружается на самом деле, просто в фоне или что то типо того

Тут анонс платформы Gigabyte прошел (https://habr.com/ru/companies/hostkey/articles/878364/), с 48 сокетами под RAM и пропускной способностью 2,7 ГБ, это конечно раз в 10 медленнее ускорителей, но за счет того что модель будет лежать в одном месте, получается почти в два раза быстрее, чем на кластере из 32 штук 4090 и гораздо дешевле.

  • GPU ( 32x RTX 4090):

    INT8: ~1–5 токенов в секунду.

    ---

    32x RTX 4090 - 48 000

    минимум 8 серверов по 4 карты минимум 24 000$

    ---

    ~72 000 $

    Если пересчитать с 12 * A6000, будет еще дороже

    Про 10 А100/H100 даже писать страшно, там уже полмиллиона+ будет и это для INT8, для FP16 умножаем примерно на 3) Будет конечно быстрее чем в оперативке)

  • 1 ТБ RAM:

    FP16: Невозможно.

    INT8: 7–10 токенов в секунду.

  • 3 ТБ RAM:

    FP16: 4 –7 токена в секунду.

    INT8: 14–20 токенов в секунду.

---

GIGABYTE R283-ZK0-AAL1 - 7 339,00 $ 

3 ТБ RAM - 15000 $
AMD EPYC 9274 - 2 * 2 255,00 $
---

~ 25000 - 26000

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории