Как стать автором
Обновить

Комментарии 26

О!
А теперь то же самое, но для кодогенерации, принципы те же но возможности наверное будут огого.

Да, да. Я тоже считаю, что такая штука нужна чтобы код писать. И ещё, чтобы можно было делать вложенные ноды, создавая модули, и интерполировать такие конструкции как до фреймворков в большую сторону вложенности, так и до примитивов булевых операций.

Следует учитывать, что в CUI и а1111 по разному рассчитываются веса промптов. Это значит, что нет возможности обмениваться между ними промптами без доработок. Результаты, скорее всего, будут разные.

https://github.com/comfyanonymous/ComfyUI/discussions/521

Нет обработки конструкций типа [x::4] или [x:4] в промпте. Можно реализовать с адвансед Ксемплерами, но конструкция получатся монстроузная.

https://github.com/comfyanonymous/ComfyUI/discussions/493

Уже есть кастом нода которая решат проблему весов предлагая реализацию как в А1111. Но все равно одинаковые результаты получить не выйдет, так как сиды в ComfyUI генерируются на CPU

При построении цепочек в ксемпоерах можно конвертировать сиды в инпут и соединить все с одним примитивом. Это заставит все семплеры стремиться к одному результату (при одинаковых промптах и семплерах)

Если вы о двойном семплировании, то да, так можно сделать. Но чаще результат получается лучше если сиды разные.

Очень интересно. По сути, дизайнер переквалифицируется в аналог программиста ЧПУ. Раньше для вытачивания детали необходимо было карпеть над станком и долго вытачивать деталь вручную. Затем слесари были заменены ЧПУ станком, где специалист закладывает логику обработки детали, а станок сам без его непосредственного участия обрабатывает деталь. Теперь пришла очеред дизайнеров. Дизайнер обрабатывает не саму картинку, а закладывает в ComfyUI программу логики обработки изображения. Таким образом, мы говорим не про уничтожение профессии дизайнера, а о переквалификации из простого примитивного слесаря в программиста логики обработки изображения. Очень нужный материал, жду продолжения!

Спасибо, интересное сравнение!

Забавно, что по прошествии стольких лет люди так и не поняли смысла профессии дизайнера. Спросите нейросеть, она вам даст определение, ну или вики.

Возможно я очень далек от понимания современных инструментов по генерации изображений с помощью нейросетей и мой вопрос слишком очевиден. Тем не менее, каким наиболее простым способом (набором инструментов) можно огранизовать следующий рабочий процесс:

  1. Обучить нейросеть нужному стилю рисования используя набор имеющихся изображений в количестве нескольких сотен.

  2. Сгенерировать изображение по текстовому описанию и/или по другой картинке на прозрачном фоне для использования в виде асета.

  3. Пункт не обязательный, больше экспериментальный. Можно ли сгенерировать изображение с послойной структурой. Чтобы на выходе было: файл с поддержкой слоев, а внутри каждая значимая часть объекта на отдельном слое, чтобы была возможность костной анимации в случае необходимости.

Спасибо

  1. Есть несколько способов, самые эффективные это дообучить модель, натренировав checkpoint (ищите по запросу Dreamdooth) или натренировать LoRA (модификатор параметров модели). Оба варианта не дадут точно снять "стиль", они скорее тренируются на условный образ объекта. Надо пробовать. Изображений для этого надо значительно меньше чем 100, достаточно приблизительно 20.

  2. Да, это можно сделать, в базовой сборке ComfyUI таких нод нет, но есть сторонние. Если вы владеете пайтоном, то можно написать вообще почти любой функционал по обработке изображений.

  3. Такого функционала я не видел, но возвращаясь к пункту 2 - пайтон разработчик хорошо понимающий как работать с изображениями сможет написать нужное решение.

А вы используете такие или подобные сценарии в игровых проектах? Или знаете о подобных сценариях в индустрии? Или на текущем этапе развития инструментов генерации усилия затраченные на приемлемый арт будут несравнимо больше усилий художника? При том что, как я понял, в сгенерированный арт практически невозможно вносить изменения.

Применять можно уже сейчас, но это довольно ограниченный круг применимости. Под "ключ" можно делать иконки, оформление интерфейса, или концепты/иллюстрации персонажей не в полный рост. Если задаться целью, можно сделать и ассеты для 2д игры например. Это все реализуемо и скорее всего кем то уже внедряется. Править конечно придется все равно руками, так что пока это не отказ от 2д художников как специалистов, а скорее инструмент ускорения продакшена. Да и в будущем все равно нужны будут люди которые будут ставить правильную задачу нейросети и отбирать релевантные результаты.

в целом, для обоих, но для LoRA в принципе больше не надо, а для hypernetworks зависит от потребностей

Про дообучение есть интересный ролик — https://www.youtube.com/watch?v=dVjMiJsuR5o

Возможность сразу получить своё изображение на прозрачном фоне отсутствует. Есть эффективные способы вырезания вручную.

Уже есть такая штука как latent couple, вроде. Там задача генерации изображения задаётся уже сразу послойно и потом изображения сливаются в одно. Сам не пробовал, но возможно, есть способ сохранения слоёв по отдельности.

реванш "проводного" программирования из эниака

C SD 2 так же работает?

SD2 это модель, данный интерфейс поддерживает работу с моделями версии 2.x Однако они во всем хуже сейчас чем модели на версии 1.5

Спасибо.

Порекомендуйте туториал по нодам, связям и параметрам?

Все что видел в ют без объяснения, скорее всего авторы там сами не в курсе )

К сожалению сейчас нет ни туториалов ни исчерпывающей документации по всем нодам. Самое эффективное это изучать шаблоны представленные на гитхабе проекта.

а как лучше подбирать модели? их десятки или сотни, может есть ресурс где их сравнивают?

Самый просто способ - отсортировать по популярности или скачиваниям. Первые 5 позиций скорее всего удовлетворят любые ваши потребности. Но в основном модели используют для решения какой то конкретной художественной задачи и подбирают под нее.

Опробовал этот интерфейс. Интересный! Есть очевидно более удобные "механики", которых нет в SD от Автоматика

Спасибо! Похоже постепенно пересяду на него.

Вопрос только в том, какой тут синтаксис. Хочется все таки использовать веса к промтам (есть нативный синтаксис, а не расширение, дающее использовать веса, как у автоматика?)

Поздно увидел комментарий, но отвечу: синтаксис от автоматика не работает полностью. Можно только указывать через двоеточие вес (примерно от 0.1 до 1.5) и можно взять в скобочки если нужен акцент на каком то участке/слове промпта.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории