Comments 15
Меня интересует насколько будет актуальна эта статья, скажем через месяц, когда выйдет очередная версия нейросетки-художника .... со своими промтами ( обученная на другой разметке картинок ) ?
Может в них уже уберут связку "россия" -> церковные луковки?
Думаю какое-то время будет актуальна. Нейронки делают крутые креативные картинки, но когда хочешь что-то прям конкретное, чаще всего это рандом, можно с первой генерации получить идеал, а можно и 100 сделать и ничего не получится.
когда выйдет очередная версия нейросетки-художника… со своими промтами ( обученная на другой разметке картинок ) ?Принципиально ничего не изменится. Есть всего два варианта формирования промта: либо описательный — «1 человек в рубашке стоит и делает Х», либо «теговый» — «1 человек, стоит, делает Х, рубашка».
Определяется он датасетом при обучении модели.
Других не придумали и вряд ли уже придумают.
Других не придумали и вряд ли уже придумают.
сепка в конвеере операндов (программирование)
2d ввод (по сути тот же художник-скетчер)
3d ввод
захват электоэнфоцилограммы
продолжать?
ЗЫ
Ждём статью какой танец с бубном надо станцевать, чтобы появилась желаемая картинка
сепка в конвеере операндов (программирование)Есть уже все это, на нодах, без текстового промта просто нет смысловой нагрузки у генерации, вы просто шум в шум перегоняете.
2d ввод (по сути тот же художник-скетчер)img2img уже существует — он не замена текстовому промту, а дополнение. Ну или основа, если вам угодно.
3d вводТот же самый img2img, только в профиль, уже реализован как controlnet (не помню, какой именно препроцессор, ибо не пользуюсь) — как вы могли догадаться, все еще бесполезен без текстового промта.
захват электоэнфоцилограммыНоу комментс.
Ждём статью какой танец с бубном надо станцевать, чтобы появилась желаемая картинкаНужно просто упырить мел и принять, что 1-в-1 как в ваших фантазиях не сделает даже художник. После этого становится сильно проще.
Изначальная цель была сделать такую же как на клавиатуре, только с перламутровыми пуговицами, то бишь блестящую?
Спасибо, что провели сравнение возможностей разных генераторов. Кандинский отстаёт от Midjourney и Stable Diffusion в развитии на полтора года. Люди, которые увлекаются генерацией картинок ещё со времён VQGAN + CLIP, отчётливо видят, что Кандинский 2.1 рисует на уровне Midjourney v3. Остальные же пишут о Кандинском в режиме "божья роса", словно Midjourney и Stable Diffusion не существует.
Как мы кнопку Enter пытались сгенерировать