Search
Write a publication
Pull to refresh

Comments 12

PinnedPinned comments

Важно подобрать правильный индекс-URL для вашей CUDA. Я, конечно же, по совету поставил не ту версию и ничего не заработало.

Нашёл это решение тут https://github.com/comfyanonymous/ComfyUI/issues/7127#issuecomment-2746096337

Хм… Зачем мучить ChatGPT?

  1. Заходим на https://pytorch.org/

  2. Листаем вниз до раздела «Install PyTorch».

  3. Указываем желаемые параметры (для Вашего случая: PyTorch Build — Stable, Your OS — Linux, Package — pip, Language — Python, Compute Platform — CUDA 12.8).

  4. В строке «Run this Command» получаем готовую команду (с указанными выше параметрами, pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128)

Вы используете его буквально как сервис для локальной сети? Для чего ещё его кидать в автозагрузку?)

Стоит Fooocus (для быстрых вещей) и Stable Diffusion (для чего-то по-сложнее), каждый раз необходимо активировать окружение, это же нормально вроде бы)

Когда это на рабочем компе - ну терпимо, а когда это на локальном же сервере - уже вымораживает каждый раз по удаленке туда цепляться и активировать для каждого своё. Обычно если они там запущены и апи торчат в локалку - ну ладно, до первой перезагрузки)

Нет, на локальной машине, она перезагружается иногда.

Важно подобрать правильный индекс-URL для вашей CUDA. Я, конечно же, по совету поставил не ту версию и ничего не заработало.

Нашёл это решение тут https://github.com/comfyanonymous/ComfyUI/issues/7127#issuecomment-2746096337

Хм… Зачем мучить ChatGPT?

  1. Заходим на https://pytorch.org/

  2. Листаем вниз до раздела «Install PyTorch».

  3. Указываем желаемые параметры (для Вашего случая: PyTorch Build — Stable, Your OS — Linux, Package — pip, Language — Python, Compute Platform — CUDA 12.8).

  4. В строке «Run this Command» получаем готовую команду (с указанными выше параметрами, pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu128)

Хорошее замечание, буду знать теперь, закрепил ваш комментарий.

Привет, спасибо за гайд!

На мой взгляд удобнее разворачивать это в docker compose с проброской gpu. Модели можно скачивать через ComfyUI‑Manager (правда некоторые придется скачивать напрямую в контейнер). Можно будет открыть порт и подключаться с другого ПК или смартфона через браузер.

Я пробовал пример из этого репозитория, но мне нужно было запустить все на cpu (не советую, все очень медленно генерируется, просто тестил возможность).

Вы меня опередили, только собрался посоветовать это автору :-)

Если вы не занимаетесь разработкой программ на питоне то лучше всё завернуть в докер, примонтировав к нему необходимые папки (docker compose тут ещё лучше так как всё описывает в одном файле). И не засорять систему питоновскими пакетами, даже если они в virtualenv.

Добавьте, пожалуйста, во вступление хотя бы краткое описание - что это и для чего это. Так статья будет полезнее.

Спасибо, добавил краткое описание со ссылками.

ComfyUI, по крайней мере на ПК, поддерживает огромное количество других моделей. Рекомендую попробовать что-нибудь более интересное, например, FLUX (и не оригинальный, а тюнингованные модели на его основе) или то, что было после.

Там одно дело установить, а другое дело - пользоваться. Ещё неизвестно, где больше подводных камней. ;)

Да, как раз сейчас погружаюсь в этот удивительный мир. Можете посоветовать какие-то конкретные модели, которые вам понравились?

Есть Stability Matrix которая делает все сама...

Sign up to leave a comment.

Articles