Как стать автором
Обновить

Создаем воспоминания. Осваиваем FLUX, LoRA и ComfyUI

Время на прочтение7 мин
Количество просмотров21K
Всего голосов 52: ↑52 и ↓0+60
Комментарии34

Комментарии 34

Извините, не удержался от мема

Дед в ответ генерит завещание в ruGPT.

Обучение Лоры - устаревший способ. Можно же заюзать любой проект типо Instant ID, для Flux тоже уже порт есть

Лора намного лучше будет,поверь мне такого эффекта и сходство на Instant ID не добиться как на Лоре!

Плюс задача не всегда айдентити выучить, это в статье пример на лицах.

Верно отмечено, дообучать можно на любых картинках.

Так можно переносить стиль или обучаться на каких-нибудь Чебурашках, в зависимости от задачи.

То, что я пробовал, например вот тут FLUX InstantID — мне как-то меньше понравился, даже по качественным фото генерирует не очень похоже. Может есть где получше?

Бродский
Бродский

Еще

Стругацкие - это несомненно очень хорошо, с учётом повода.

А так, на Civitai.com с сентября создано много других LoRA широко раскрывающих возможности Flux. Поэтому, прежде чем генерировать кого-то самостоятельно, поищите, возможно там уже есть готовый файл.

Мне кажется, вам видео модели типа HunyuanAI тоже должны понравится, генерят все.

Ещё Стругацкие

Потом кто захочет посмотреть на реальные фотографии Стругацких - а фиг вам, весь поиск забит ИИ выхлопом. https://habr.com/ru/news/871414/

Ну вы попробуйте сейчас поискать, например, Аркадия Стругацкого. Он ушел в 1991 году, нормального качества фотографий с ним нет, да и с качеством похуже тоже.

А дальше еще хуже с этим будет. ИИ раскрасит, нафантазирует с прошлых фантазий, размножит в миллионы вариантов и в этой куче реальные фото найти станет не реально.

Все так. Я думаю, это детекторами ИИ-контента будет решаться.

не будет. Они не поспевают за улучшающимся качеством контента. Разве что введут обязаловку указывать что это сгенерированный контент.

Ну, думаю, сделают какие то "метки" обязательные или автоматические для ИИ-контента.

Почему вы учили через обёртку, а не через kohya напрямую?

В обертку удобно файлы скинуть, чтобы они отмаштабировались и подготовились, плюс скрипт с вызовом сразу показывается.

Вот в этот скрипт я добавлял параметры для изменения лоры и запускал его в консоли, так что обучение шло через kohya.

Хм, круто, а виде фона паспорт РФ и получается сейчас Борис Стругацкий скинет фото паспорта, пройдет KYC и купит немношк крипты 😁

Еще Семихатов

Еще Сурдин

Шикарно))

Может кто знает сколько минимум надо памяти? (16, 24 гб)

На 4080 получится обучить лору?

16Гб должно хватить, можно выставить такое ограничение во fluxgym или скриптах.

Получится, я учил на 4080. У меня даже есть мысль, что и на 8 Гб получится, если подобрать параметры и не делать слишком большую лору.

"Время работы: моя 3090 пыхтит и делает «бррр» в течение 40-60 минут (зависимости от каличества фото и эпох — циклов обучения по датасету)."
А какие у вас параметры были выставлены, что видеокарта за час всё успевает? У меня 4070 TI Super на 16 Гб только один epoch крутит 2 часа. Задано разрешение в 1024, изображений 18, Repeat trains per image - 10. При этом нагрузки на GPU в диспетчере задач не видать.

Это, если по минимуму делать — 12-14 фото, по 8 повторений, 8 эпох. Разрешение 512.

То, что нагрузки не видать, это явно не хорошо. Проверьте, что у вас torch+cuda установился.

Можете какую-нибудь модель с HF типа llama отдельно подгрузить скриптом и перенести на GPU, если память займется, значит норм. Тогда надо проверить, что flyxgym правильно установился.

Всё-таки видимо кол-во памяти у видеокарты играет большую роль в скорости. Я попробовал переставить всё заново на другой диск, но всё равно то же самое. Скорость может варьироваться от 20 минут до 2 часов за 1 epoch. В итоге за 15 часов он сделал 12 epoch при разрешении в 1024, изображений 18, Repeat trains per image - 10.

Что самое смешное процесс создания лоры не влияет на нагрузку процессора видеокарты, если отключить автоскроллинг вывода в браузере, то она будет почти всегда на нуле.

Ещё столкнулся с проблемой, что созданная лора не работала сначала с чекпойнтом - Flux1-dev-bnb-NF4. Заработало после изменения параметра Diffusion in low bits на Automatic (fp16 LoRA)

Вы же через nvidia-smi смотрите загрузку?

Это в покое. При обучении утилизация и память не растут у вас?

Да, при обучении в потолок всё уходит. Значит из-за 16 Гб памяти обучение сильно медленнее, чем на 24 Гб.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий