Как стать автором
Обновить

Запускаем DeepSeek-R1 на обычном сервере с 768Гб ОЗУ в LM-Studio

Уровень сложностиПростой
Время на прочтение5 мин
Количество просмотров4.8K

Что побудило написать статью?

Была тут недавно статья с картинками железа, ценами на железо, но без описания настроек, но зато с ссылками на GitHub и цитирую «Инструкция: Следуйте руководству в репозитории GitHub».:‑) Хотя в нынешних реалиях запустить нейросеть можно уже на чем угодно и не обязательно обладать навыками выше «Опытного пользователя ПК». (Если рассматривать «дистиллированные» сети, не знаю как правильно перевести.) Поэтому использования сложных инструментов и инструкций чтобы запустить что‑то и тем более отправку на GitHub считаю не совсем корректно.

О себе

Я не являюсь каким‑то специалистом в нейросетях, понятия не имею как их разворачивать, не сильно разбираюсь в терминологии, их классификации и прочее. Пользуюсь ими на уровне «хомячка», в публичных веб версия чтобы написать «простыню» если вдруг срочно требуется какой нибуть план аудита кротов в кроличьих норах или методология разведения гусей и мышек.

Поэтому статья будет из серии как нарисовать сову :-)

Железо и ПО на котором будем запускать

Как у любого рядового читателя Хабра у меня в распоряжении есть небольшой кластер виртуализации на модной сейчас среде "СВ ПК Брест".

Из него мы выделим одну ноду с характеристиками:

  • 2x Intel Xeon Gold 6226R (16core/2.9 GHz)

  • 12x 64GB DDR4 RDIMM 2933MHz

  • 2 x 480GB SSD SATA

  • 2 x 2-port 10Gb SFP+

  • внешнее СХД подключенное по 10G ISCSI

В СВ ПК Брест создаем виртуальную машину (ВМ), отдаем ей максимум ресурсов ноды, в ВМ устанавливаем Windows Server 2022 (Windows), устанавливаем ПО LM-Studio, в LM-Studio скачаем модель DeepSeek-R1-GGUF запустим и посмотрим, что получится.

Почему выбор пал на LM-Studio?

Само использование инструмента LM-Studio позволяет запускай модели нейросетей просто и быстро, в графическом интерфейсе, который будет понятен большинству пользователей ПК. Никаких кучи команд, консоли и конфигов. Запустил программу, выбрал модель, нажал скачать, нажал запустить и можно пользоваться.

Данная инструкция по запуску модели в LM-Studio подойдет для запуска большинства моделей с сайта https://huggingface.co (естественно если ваше железо достаточно для запуска)

Создание Виртуальной машины

Наверное, каждый на Хабре хоть раз в жизни настраивал какую-либо среду виртуализации и ВМ в ней или как минимум знает в теории как это все работает и делается, тем более это не основная тема статьи, поэтому сократим по максимуму:

  1. Создаем шаблон, в нем настраиваем NUMA 2 сокета, 8 ядер, 2 потока

Настройка NUMA в шаблоне виртуальной машины
Настройка NUMA в шаблоне виртуальной машины
  1. Создаем постоянный образ жесткого диска

Характеристики создаваемого диска
Характеристики создаваемого диска
  1. Из шаблона разворачиваем ВМ, монтируем жесткий диск в ВМ, проверяем что не ошиблись в настройках ВМ.

  1. Устанавливаем Windows (ну тут все мастера, правда у меня был готовый sysprep образ), проверяем что драйвера virtio на месте.

После 15 минут у нас получилась вот такая ВМ с Windows Server 2022:

Развернутая ВМ с 32 ядрами и 750 ГБ ОЗУ
Развернутая ВМ с 32 ядрами и 750 ГБ ОЗУ

Внутри ВМ Windows

ЦПУ
ЦПУ
ОЗУ
ОЗУ

Тест памяти в AIDA64 внутри ВМ (очень медленно, кто знает почему напишите в комментариях):

Тест памяти в получившийся ВМ
Тест памяти в получившийся ВМ

Устанавливаем LM-Studio и скачиваем DeepSeek-R1-GGUF

  1. Заходим на сайт https://lmstudio.ai и там без СМС и регистраций скачиваем:

    LM-Studio-0.3.9-6-x64.exe (или актуальную версию на момент прочтения)

  2. Устанавливаем LM-Studio, установка простая, нажимаем кнопочку далее, далее…

Установка LM-Studio, выбираем каталог установки
Установка LM-Studio, выбираем каталог установки
  1. Запускаем установленный LM-Studio и попадаем в главное окно программы

Окно запущенного LM-Studio
Окно запущенного LM-Studio
  1. Нажимаем слева на панели кнопок кнопку поиска (иконка лупы), открывается следующее окно поиска

Окно поиска моделей, ищем модель DeepSeek-R1-GGUF и скачиваем её
Окно поиска моделей, ищем модель DeepSeek-R1-GGUF и скачиваем её
  1. В строке поиска пишем название модели (в нашем случае DeepSeek-R1-GGUF), кнопкой, выбираем какой вариант (квантования и размер модели) скачать (я скачал Q4_K_M так как для остальных LM-Studio считает считает что недостаточно ресурсов) и нажимаем кнопку "Download" (в моем случае кнопка "Use in New Chat", так как я уже скачал модель и скриншоты делал после). Дальше начинается процесс скачивания, ждем, все зависит от вашего интернета.

    Процесс скачивания модели DeepSeek-R1-GGUF
    Процесс скачивания модели DeepSeek-R1-GGUF

Запускаем модель DeepSeek-R1-GGUF

  1. После предыдущих действий у нас есть установленный LM-Studio и скачанная модель DeepSeek-R1-GGUF

  2. В главном меню программы нажимаем "Select model to load"

    Нажимаем кнопку "Select model to load"
    Нажимаем кнопку "Select model to load"
  3. Выбираем нашу модель (DeepSeek R1) и нажимаем на нее (тут может быть много моделей)

    Выбираем модель для запуска DeepSeek R1
    Выбираем модель для запуска DeepSeek R1
  4. Откроется окно, в котором мы можем указать дополнительные параметры запуска модели (я выбрал размер контекста в 16384 токенов, по умолчанию - 4094, максимум - 163480)

    Настройки запуска модели
    Настройки запуска модели
  5. Жмем "Load Model" и ждем пока она загрузится в ОЗУ

    Загрузка модели в ОЗУ
    Загрузка модели в ОЗУ
  6. После загрузки модели вы увидите, что надпись "Loading... %" изменится на " вап" и мы можем начать экспериментировать

    Модель загружена в ОЗУ
    Модель загружена в ОЗУ
  7. Все готово, можно использовать модель

    Модель рассуждает на заданный вопрос
    Модель рассуждает на заданный вопрос
  8. Качество и скорость работы можно оценить на видео

Что нейросеть знает о Хабре

Ответ на вопрос «Привет что ты знаешь о Хабре?» кто не смог посмотреть видео под спойлером

Скрытый текст

Хабр (Habr) — это популярная онлайн-платформа, где пользователи делятся знаниями в областях IT, разработки программного обеспечения, технологий и науки. Сайт был основан в 2006 году Денисом Крючковым и изначально ориентировался на IT-специалистов, но со временем расширил тематику.

Основные разделы Хабра:

  1. Публикации — статьи пользователей по разным темам: программирование, кибербезопасность, AI, блокчейн и др.

  2. Хабрахабр (соцсеть) — профили пользователей, подписки, лента активности.

  3. Компании — блоги компаний, вакансии, кейсы.

  4. Q&A — вопросы и ответы по техническим темам.

Особенности:

  • Качество контента: Статьи часто глубокие и профессиональные.

  • Сообщество: Активные пользователи, включая экспертов из разных областей.

  • Комментарии: Обсуждения могут быть критичными, но полезными.

  • Карьера: Раздел с вакансиями для IT-специалистов.

Критика:

Иногда контент становится слишком поверхностным или рекламным. Также споры в комментариях бывают токсичными.

Хабр остается ключевым ресурсом для рунета в области технологий и IT.

Хабр (Habr) — это известная онлайн-платформа, основанная в 2006 году, которая объединяет IT-специалистов, разработчиков и tech-энтузиастов. Вот ключевые аспекты:

Основное о Хабре:

  1. Контент:

    • Пользователи публикуют статьи на темы: программирование, кибербезопасность, AI/ML, блокчейн, стартапы.

    • Материалы варьируются от tutorials до аналитики и кейсов из реальных проектов.

  2. Аудитория:

    • Целевая аудитория — разработчики, инженеры, менеджеры IT-проектов, ученые.

    • Активное комьюнити с высоким уровнем экспертизы.

  3. Структура:

    • Хабры: Тематические разделы (например, «Python», «Big Data»).

    • Компании: Корпоративные блоги (Яндекс, Tinkoff и др.), вакансии.

    • Карьера: Раздел для поиска работы в IT.

  4. Особенности:

    • Жёсткая модерация: статьи проходят проверку перед публикацией.

    • Комментарии часто содержат конструктивную критику или дополнения от профессионалов.

  5. Проблемы:

    • Иногда контент становится излишне рекламным (продвижение сервисов/продуктов).

    • Споры в комментариях могут перерастать в холивары.

Популярные форматы:

  • Туториалы: Пошаговые руководства (например, «Как настроить Docker»).

  • Кейсы: Опыт внедрения технологий в компаниях.

  • Новости и аналитика: Обзоры трендов (Web3, Quantum computing).

Интересное:

  • Раньше Хабр был более нишевым, но сейчас охватывает широкий спектр тем — от low-level разработки до менеджмента.

Хабр остается главным источником экспертного контента на русском языке для IT-сферы. 🔍

Выводы

На сервере без GPU запустить конечно модель можно, но вот скорость работы оставляет желать лучшего. Скорое всего большие смысл имеет запустить дистиллированные модели и другие маленькие модели, но на GPU, даже на домашних карточках сейчас 8-12-16-24GB памяти.

Модель запускалась от нечего делать, в период простоя узла кластера. Какой-либо коммерческой цели использовать в таком варианте не было и не будет (проще купить подписку и пользоваться).

Как тестировать на производительность я не знаю, ну видно, что она еле шевелится. Если будут какие-то предложения пишите, попробуем попробовать.

ps было потрачено около 5 часов из них:

  • 30 минут на настройку и установку;

  • где то два часа с кофе и скачивание модели (три раза был обрыв скачки)

  • 2.5 часа на написание статьи, снятие скриншотов, заливки видео...

Теги:
Хабы:
+9
Комментарии28

Публикации

Истории

Работа

Data Scientist
69 вакансий

Ближайшие события

11 – 13 февраля
Epic Telegram Conference
Онлайн
27 марта
Deckhouse Conf 2025
Москва
25 – 26 апреля
IT-конференция Merge Tatarstan 2025
Казань