Комментарии 3
выяснил что амд нам немножко врут. 7800 якобы официально не поддерживается, плюс требуется типа последний драйвер. а по факту все работает абсолютно одинаково, хоть по гайду амд ставить, хоть по инструкции с сайта комфи и отлично работает на дровах 24 года.
Что с Flux? стабильно? у меня почему-то скорость от 200с на картинку 1500х1500 при 8 шагах до 1600с и выше....
--use-quad-cross-attention опция вроде помогла стабилизировать время генерации, но все равно генерирует медленнее, чем могло бы
У меня из gfx110X только встройка 780m. Моя основная карточка RX 6800 (gfx1030) и в ней аппаратно нет поддержки rocWMMA, поэтому мне не на чем экспериментировать. Но по идее разные attention должны работать на 11м поколении, как у вас, если собрать pytorch с параметром `--enable-pytorch-flash-attention-windows`.
А по скорости, да как то медленновато, для этого поколения, я такое разрешение у себя не пробовал делать но 1200x1200 у меня генерируется что то около 300с при 20 шагах.
Я вообще думал дать ума вот этому https://github.com/pollockjj/ComfyUI-MultiGPU чтобы как раз при генерациях где памяти не хватает, часть скидывать на встройку, но пока успехов особо нет)

Собираем ROCm 7.1 + PyTorch в Windows под свои GPU