Pull to refresh
13
0
Алексей Луговой @AlexeyLugovoy

User

Send message

Не ну тут вопрос подхода - всё это диффузионные модели (картинка из статьи с GAN vs VAE vs Diffusion based models). Одна из реализации этого подхода - Stable Diffusion (самая ходовая - от diffusers или stability.ai). Другая - Kandinsky, третья - DALL-E, следующая - Midjourney и пр.

Реализация Stable Diffusion качественно выделяется из других, т.к. она опенсурс - с открытым кодом и лицензией. Поэтому, бери это за основу да делай (=плоди) тыщу других версий с минимальными телодвижениями с собственными лицензиями.

Итого имеем: да, действительно, большинство это просто докрученная SD, но, все-таки, это не единственная реализация, на которую могут опираться разработчики.

А они в начале карточки самой пишут: "Dreamlike Photoreal 2.0 is a photorealistic model based on Stable Diffusion 1.5, made by dreamlike.art."

Так что, строго говоря, это докрученный sd, все-таки 🤓

Спасибо!)

У вас топовые идеи, которые заслуживают внимания. Стараемся тоже прикручивать такого рода фичи, но, лучше, пожалуй, сделать качественно, но не первыми, чем первыми, но некачественно (с) Стэтхэм

Дада, всё так. Но ComfyUI - это сложный инструмент уровня аля фотошоп наших дней. Кто им владеет, тот крутой перец.

Полностью согласен, что кожаные еще нужны и даже вне конкуренции пока. Посмотрим, что предложит нам некстген ген аи)

Боюсь, что Dreamlike - это лишь сервис, который предлагает удобный интерфейс взаимодействия. Если я не ошибаюсь, то вид моделей для генерации он использует ровно такой же 🤔

Кажется, наш сервис лишь сильно упростит работу дизайнеру, чтобы начать работу не с чистого холста. А так, да, в вашем случае, все равно пока нужен человек и более точные инструменты.

Будем развиваться с учетом таких потребностей!

Сложно сказать, пока работаем над сервисом.

Если предлагать не только сотрудникам, то это больше ответственности, а значит, больше работы и времени 🙈

100% как вариант

Пробовали что-то такое. Получались какие-то засечки/линии, которые непредсказуемо перемещались в зависимости от входного изображения и трешхолдов для алгоритмов. Пришлось ручками подбирать это все для каждого изображения индивидуально - плохая автоматизация... Да и хочется что-то более явное: вот потолок, вот стена, вот пол, вот грязная плитка с узором, которую не надо брать во внимание (или ковер во всю стену). Но тут, конечно, надо более продвинутые подходы рассматривать, что-то с сегментацией.

Конечно, сейчас, генерация - это, скорее, про фантазию и вдохновение: помимо размеров еще куча артефактов и других мелочей, к сожалению.

В целом, в статье про это сказано и можно попробовать добиться более хороших результатов подкруткой параметров или подгонкой исходного изображения.

Чтож, будем стараться улучшать :)

Information

Rating
Does not participate
Works in
Registered
Activity

Specialization

Data Scientist, ML Engineer
Lead
Computer Science
Machine learning
Deep Learning
Computer vision
Neural networks
Python
Pytorch