Комментарии 10
очень крутые статьи! в какой бюджет обошлась ваша домашняя лаборатория?
Большое спасибо за отзыв! Для меня очень важна обратная связь.
Вопрос про бюджет провокационный конечно) Поэтому отвечу так - точно дешевле, чем одна Tesla H100 80Gb, если смотреть объявления на авито.
на самом деле никакой провокации, сам занимаюсь посторойкой homelab, но без видеокарт)
Добрый день! Прекрасная статья!
Подскажите, есть ли возможность протестировать мой промпт на вашей модели (я интересуюсь его применимостью на разных LLM и влиянием фильтров разработчиков)?
Здравствуйте! Спасибо за такое подробное описание работы распределенных вычислений.
Скажите, возможно мне провести этот эксперимент на моих домашних ноутбуках? Всего 3 ноутбука. У одного (13900hx) дискретная 4080 (12gb). У 2-х других (12700h и 13500h) есть внешние видеокарты через TB4: 2080ti и 3090.
Здравствуйте!
Да, провести возможно, но надо подумать как лучше объединить ваше оборудование в единый ray кластер с проброшенными GPU - на это может потребоваться много времени)
Плюс надо понимать, что при разнородной инфраструктуре, распределение будет ограничено по самой наименьшей по видеопамяти карте (особенности vLLM)
Мне кажется проще будет в вашем случае использовать решение Exo https://github.com/exo-explore/exo
Достаточно будет поставить docker и прокинуть в контейнер GPU и в этой среде поставить exo
Большое спасибо за такую подробную и интересную статью. Подчеркнул для себя несколько идей)
Распределённый инференс и шардирование LLM. Часть 3: настройка авторизации и интеграция с Open WebUI