Comments 12
Важно подобрать правильный индекс-URL для вашей CUDA. Я, конечно же, по совету поставил не ту версию и ничего не заработало.
…
Нашёл это решение тут https://github.com/comfyanonymous/ComfyUI/issues/7127#issuecomment-2746096337
Хм… Зачем мучить ChatGPT?
Заходим на https://pytorch.org/
Листаем вниз до раздела «Install PyTorch».
Указываем желаемые параметры (для Вашего случая: PyTorch Build — Stable, Your OS — Linux, Package — pip, Language — Python, Compute Platform — CUDA 12.8).
В строке «Run this Command» получаем готовую команду (с указанными выше параметрами, pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128)
Вы используете его буквально как сервис для локальной сети? Для чего ещё его кидать в автозагрузку?)
Стоит Fooocus (для быстрых вещей) и Stable Diffusion (для чего-то по-сложнее), каждый раз необходимо активировать окружение, это же нормально вроде бы)
Когда это на рабочем компе - ну терпимо, а когда это на локальном же сервере - уже вымораживает каждый раз по удаленке туда цепляться и активировать для каждого своё. Обычно если они там запущены и апи торчат в локалку - ну ладно, до первой перезагрузки)
Нет, на локальной машине, она перезагружается иногда.
Важно подобрать правильный индекс-URL для вашей CUDA. Я, конечно же, по совету поставил не ту версию и ничего не заработало.
…
Нашёл это решение тут https://github.com/comfyanonymous/ComfyUI/issues/7127#issuecomment-2746096337
Хм… Зачем мучить ChatGPT?
Заходим на https://pytorch.org/
Листаем вниз до раздела «Install PyTorch».
Указываем желаемые параметры (для Вашего случая: PyTorch Build — Stable, Your OS — Linux, Package — pip, Language — Python, Compute Platform — CUDA 12.8).
В строке «Run this Command» получаем готовую команду (с указанными выше параметрами, pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128)
Привет, спасибо за гайд!
На мой взгляд удобнее разворачивать это в docker compose с проброской gpu. Модели можно скачивать через ComfyUI‑Manager (правда некоторые придется скачивать напрямую в контейнер). Можно будет открыть порт и подключаться с другого ПК или смартфона через браузер.
Я пробовал пример из этого репозитория, но мне нужно было запустить все на cpu (не советую, все очень медленно генерируется, просто тестил возможность).
Вы меня опередили, только собрался посоветовать это автору :-)
Если вы не занимаетесь разработкой программ на питоне то лучше всё завернуть в докер, примонтировав к нему необходимые папки (docker compose тут ещё лучше так как всё описывает в одном файле). И не засорять систему питоновскими пакетами, даже если они в virtualenv.
Добавьте, пожалуйста, во вступление хотя бы краткое описание - что это и для чего это. Так статья будет полезнее.
ComfyUI, по крайней мере на ПК, поддерживает огромное количество других моделей. Рекомендую попробовать что-нибудь более интересное, например, FLUX (и не оригинальный, а тюнингованные модели на его основе) или то, что было после.
Там одно дело установить, а другое дело - пользоваться. Ещё неизвестно, где больше подводных камней. ;)
Есть Stability Matrix которая делает все сама...
Установка Stable Diffusion + ComfyUI