Поздно увидел комментарий, но отвечу: синтаксис от автоматика не работает полностью. Можно только указывать через двоеточие вес (примерно от 0.1 до 1.5) и можно взять в скобочки если нужен акцент на каком то участке/слове промпта.
Самый просто способ - отсортировать по популярности или скачиваниям. Первые 5 позиций скорее всего удовлетворят любые ваши потребности. Но в основном модели используют для решения какой то конкретной художественной задачи и подбирают под нее.
К сожалению сейчас нет ни туториалов ни исчерпывающей документации по всем нодам. Самое эффективное это изучать шаблоны представленные на гитхабе проекта.
Применять можно уже сейчас, но это довольно ограниченный круг применимости. Под "ключ" можно делать иконки, оформление интерфейса, или концепты/иллюстрации персонажей не в полный рост. Если задаться целью, можно сделать и ассеты для 2д игры например. Это все реализуемо и скорее всего кем то уже внедряется. Править конечно придется все равно руками, так что пока это не отказ от 2д художников как специалистов, а скорее инструмент ускорения продакшена. Да и в будущем все равно нужны будут люди которые будут ставить правильную задачу нейросети и отбирать релевантные результаты.
Есть несколько способов, самые эффективные это дообучить модель, натренировав checkpoint (ищите по запросу Dreamdooth) или натренировать LoRA (модификатор параметров модели). Оба варианта не дадут точно снять "стиль", они скорее тренируются на условный образ объекта. Надо пробовать. Изображений для этого надо значительно меньше чем 100, достаточно приблизительно 20.
Да, это можно сделать, в базовой сборке ComfyUI таких нод нет, но есть сторонние. Если вы владеете пайтоном, то можно написать вообще почти любой функционал по обработке изображений.
Такого функционала я не видел, но возвращаясь к пункту 2 - пайтон разработчик хорошо понимающий как работать с изображениями сможет написать нужное решение.
Уже есть кастом нода которая решат проблему весов предлагая реализацию как в А1111. Но все равно одинаковые результаты получить не выйдет, так как сиды в ComfyUI генерируются на CPU
Они возможны только если на картинке будут те же персонажи или какие то очень характерные только для определенной интеллектуальной собственности места или объекты. И они будут очень точно воспроизведены. Добиться подобного результата от нейросети случайно, почти нереально. Только если очень хотеть этого и очень стараться.
Многие думают что "стиль" как то может быть предметом авторского права, но и тут нет.: такого определения в области авторского права просто нет. А нейронки как раз очень хорошо копируют именно то, что люди обычно называют "ситилем".
Можно уточнить. Результат не случаен, он довольно хорошо управляем, но требует некоторое время для того что бы разобраться как правильно работать с запросом и какие параметры на что влияют.
Через дискорд, это, видимо midjourney, а я генерирую через stable diffusion. Там у вас получится более похоже, но тоже не гарантированно, потому, что надо подобрать еще настройки генерации и сид как у меня в примере.
Поздно увидел комментарий, но отвечу: синтаксис от автоматика не работает полностью. Можно только указывать через двоеточие вес (примерно от 0.1 до 1.5) и можно взять в скобочки если нужен акцент на каком то участке/слове промпта.
Самый просто способ - отсортировать по популярности или скачиваниям. Первые 5 позиций скорее всего удовлетворят любые ваши потребности. Но в основном модели используют для решения какой то конкретной художественной задачи и подбирают под нее.
К сожалению сейчас нет ни туториалов ни исчерпывающей документации по всем нодам. Самое эффективное это изучать шаблоны представленные на гитхабе проекта.
SD2 это модель, данный интерфейс поддерживает работу с моделями версии 2.x Однако они во всем хуже сейчас чем модели на версии 1.5
Применять можно уже сейчас, но это довольно ограниченный круг применимости. Под "ключ" можно делать иконки, оформление интерфейса, или концепты/иллюстрации персонажей не в полный рост. Если задаться целью, можно сделать и ассеты для 2д игры например. Это все реализуемо и скорее всего кем то уже внедряется. Править конечно придется все равно руками, так что пока это не отказ от 2д художников как специалистов, а скорее инструмент ускорения продакшена. Да и в будущем все равно нужны будут люди которые будут ставить правильную задачу нейросети и отбирать релевантные результаты.
Есть несколько способов, самые эффективные это дообучить модель, натренировав checkpoint (ищите по запросу Dreamdooth) или натренировать LoRA (модификатор параметров модели). Оба варианта не дадут точно снять "стиль", они скорее тренируются на условный образ объекта. Надо пробовать. Изображений для этого надо значительно меньше чем 100, достаточно приблизительно 20.
Да, это можно сделать, в базовой сборке ComfyUI таких нод нет, но есть сторонние. Если вы владеете пайтоном, то можно написать вообще почти любой функционал по обработке изображений.
Такого функционала я не видел, но возвращаясь к пункту 2 - пайтон разработчик хорошо понимающий как работать с изображениями сможет написать нужное решение.
Спасибо, интересное сравнение!
Если вы о двойном семплировании, то да, так можно сделать. Но чаще результат получается лучше если сиды разные.
Уже есть кастом нода которая решат проблему весов предлагая реализацию как в А1111. Но все равно одинаковые результаты получить не выйдет, так как сиды в ComfyUI генерируются на CPU
Они возможны только если на картинке будут те же персонажи или какие то очень характерные только для определенной интеллектуальной собственности места или объекты. И они будут очень точно воспроизведены. Добиться подобного результата от нейросети случайно, почти нереально. Только если очень хотеть этого и очень стараться.
Многие думают что "стиль" как то может быть предметом авторского права, но и тут нет.: такого определения в области авторского права просто нет. А нейронки как раз очень хорошо копируют именно то, что люди обычно называют "ситилем".
Про это я писал в другой статье)
Нейросети в этом плане безопаснее, чем материалы из интернета
Есть какие то попытки, но там все слабо. Пока только в 2d значительный прогресс.
Минут 40, но не специально для иллюстрации.
Об этом хочу написать статью со временем
Можно попробовать использовать получившееся изображение как маску, и добавить совсем новое описание с упоминанием "asian woman"
Можно уточнить. Результат не случаен, он довольно хорошо управляем, но требует некоторое время для того что бы разобраться как правильно работать с запросом и какие параметры на что влияют.
Через дискорд, это, видимо midjourney, а я генерирую через stable diffusion. Там у вас получится более похоже, но тоже не гарантированно, потому, что надо подобрать еще настройки генерации и сид как у меня в примере.
У меня нет цели критиковать рисующие нейронные сети, я их популяризирую. Потому что пользы они принесут значительно больше чем любого вреда.
В своих статьях я как раз пытаюсь объяснить, что противоречия нет. Напротив, развитие нейронных сетей - это в интересах художников.