Не ну тут вопрос подхода - всё это диффузионные модели (картинка из статьи с GAN vs VAE vs Diffusion based models). Одна из реализации этого подхода - Stable Diffusion (самая ходовая - от diffusers или stability.ai). Другая - Kandinsky, третья - DALL-E, следующая - Midjourney и пр.
Реализация Stable Diffusion качественно выделяется из других, т.к. она опенсурс - с открытым кодом и лицензией. Поэтому, бери это за основу да делай (=плоди) тыщу других версий с минимальными телодвижениями с собственными лицензиями.
Итого имеем: да, действительно, большинство это просто докрученная SD, но, все-таки, это не единственная реализация, на которую могут опираться разработчики.
У вас топовые идеи, которые заслуживают внимания. Стараемся тоже прикручивать такого рода фичи, но, лучше, пожалуй, сделать качественно, но не первыми, чем первыми, но некачественно (с) Стэтхэм
Боюсь, что Dreamlike - это лишь сервис, который предлагает удобный интерфейс взаимодействия. Если я не ошибаюсь, то вид моделей для генерации он использует ровно такой же 🤔
Кажется, наш сервис лишь сильно упростит работу дизайнеру, чтобы начать работу не с чистого холста. А так, да, в вашем случае, все равно пока нужен человек и более точные инструменты.
Пробовали что-то такое. Получались какие-то засечки/линии, которые непредсказуемо перемещались в зависимости от входного изображения и трешхолдов для алгоритмов. Пришлось ручками подбирать это все для каждого изображения индивидуально - плохая автоматизация... Да и хочется что-то более явное: вот потолок, вот стена, вот пол, вот грязная плитка с узором, которую не надо брать во внимание (или ковер во всю стену). Но тут, конечно, надо более продвинутые подходы рассматривать, что-то с сегментацией.
Спасибо, примем к сведению!)
Спасибо, стараемся! 🤓
😁
Не ну тут вопрос подхода - всё это диффузионные модели (картинка из статьи с GAN vs VAE vs Diffusion based models). Одна из реализации этого подхода - Stable Diffusion (самая ходовая - от diffusers или stability.ai). Другая - Kandinsky, третья - DALL-E, следующая - Midjourney и пр.
Реализация Stable Diffusion качественно выделяется из других, т.к. она опенсурс - с открытым кодом и лицензией. Поэтому, бери это за основу да делай (=плоди) тыщу других версий с минимальными телодвижениями с собственными лицензиями.
Итого имеем: да, действительно, большинство это просто докрученная SD, но, все-таки, это не единственная реализация, на которую могут опираться разработчики.
А они в начале карточки самой пишут: "Dreamlike Photoreal 2.0 is a photorealistic model based on Stable Diffusion 1.5, made by dreamlike.art."
Так что, строго говоря, это докрученный sd, все-таки 🤓
Спасибо!)
У вас топовые идеи, которые заслуживают внимания. Стараемся тоже прикручивать такого рода фичи, но, лучше, пожалуй, сделать качественно, но не первыми, чем первыми, но некачественно (с) Стэтхэм
Дада, всё так. Но ComfyUI - это сложный инструмент уровня аля фотошоп наших дней. Кто им владеет, тот крутой перец.
Полностью согласен, что кожаные еще нужны и даже вне конкуренции пока. Посмотрим, что предложит нам некстген ген аи)
Кожаные еще борются 💪🏻
🙈
Боюсь, что Dreamlike - это лишь сервис, который предлагает удобный интерфейс взаимодействия. Если я не ошибаюсь, то вид моделей для генерации он использует ровно такой же 🤔
Кажется, наш сервис лишь сильно упростит работу дизайнеру, чтобы начать работу не с чистого холста. А так, да, в вашем случае, все равно пока нужен человек и более точные инструменты.
Будем развиваться с учетом таких потребностей!
Сложно сказать, пока работаем над сервисом.
Если предлагать не только сотрудникам, то это больше ответственности, а значит, больше работы и времени 🙈
Зато пейзаж за окном поприятнее стал)
100% как вариант
Пробовали что-то такое. Получались какие-то засечки/линии, которые непредсказуемо перемещались в зависимости от входного изображения и трешхолдов для алгоритмов. Пришлось ручками подбирать это все для каждого изображения индивидуально - плохая автоматизация... Да и хочется что-то более явное: вот потолок, вот стена, вот пол, вот грязная плитка с узором, которую не надо брать во внимание (или ковер во всю стену). Но тут, конечно, надо более продвинутые подходы рассматривать, что-то с сегментацией.
Это уже к коллегам по NLP, скорее)
Это не за горами 😉
Конечно, сейчас, генерация - это, скорее, про фантазию и вдохновение: помимо размеров еще куча артефактов и других мелочей, к сожалению.
В целом, в статье про это сказано и можно попробовать добиться более хороших результатов подкруткой параметров или подгонкой исходного изображения.
Чтож, будем стараться улучшать :)