Как стать автором
Обновить

Устанавливаем и пробуем нейросеть для генерации 3D моделей Hunyan3D-2 под Windows в ComfyUI

Уровень сложностиСредний
Время на прочтение4 мин
Количество просмотров18K
Всего голосов 10: ↑10 и ↓0+12
Комментарии27

Комментарии 27

Несмотря на то, что выглядит как какашечка, это действительно впечатляет.
Впрочем о чем тут говорить, сама генерация изображений нейросетями, если подумать, то еще чудо чудесное.

3D художникам такое пока очень и очень рано. Это для тех, кому надо быстро 3D модельку сделать, но у кого лапки :)

Ничего не знаю, отлично и подробнейшим образом написанный гайд! При том что показатели железа у меня точно такие же пока что(оперативную память надо докупить), свободные слоты оперативной памяти есть, а плашек самих нет, но я планирую ещё расширение swap-а сделать, чтобы видюха "выглядела" жирнее и могла хотя бы медленно, но тащить задачи рассчитанные на более крупные объемы видеопамяти. Благодарю за пост!!!

Настоящий кошмар был год назад, а тут меши уже очень даже ничего, но пока все равно не то. Плюс тут нужно учитывать, что модельки, которые состоят из только одного меша целиком существуют в крайне ограниченной области. Любой персонаж как минимум имеет отдельно глаза, часто еще и одежду. Любая движущаяся часть должна генерироваться как отдельный меш. Так что ждем.

Retopology в помощь. Конечно, и с ней сетка будет тоже не ахти, но уже лучше. И кстати — ретопология на нейронках тоже должна появиться, по идее. И вот тогда будет вкусно.

Как же нейросетям тяжело дается это направление.

А все потому что надо модельку не как набор точек и треугольников скармливать, а как структуру. Которая создаётся из примитивов с поэтапным добавлением деталей.

Для этого можно попробовать скормить нейрсеткам туториалы с ютуба. Их много. Но ресурсов такое обучение с анализом видео и звука в 1080р сожрет явно на порядки больше, чем даже самые продвинутые текстовые модели.

Зато будут идеальные модельки с супер топологией, разверткой, редактируемыми модификаторами и так далее.

Ждем.

уже же есть нейросети вроде, которые делают через облако точек, а потом поидее по поверхности обьема точек делают ретопологию поидее, типо облако даёт силует

Дело в том, как мне кажется, что нейронки не "видят" мир так, как люди. У нас есть органы чувств в виде тех же глаз, благодаря которым мы ловим свет, а мозг его обрабатывает и исходя из тех или иных данных, мы получаем на данный момент, самую объективную картину, которую мозг может сгенерировать. Нейронки же состоят из двоичного кода, у которого нет никаких органов чувств, у которого нет возможности "увидеть", чтобы "понять" как выглядит то что что нейронка должна по нашим требованиям сделать. И именно поэтому, происходят проблемы с 3д объектами. Но возможно я лопух и ничегошеньки не понимаю.

в целом интересно, спасибо, почему obj используете?

я для себя открыл формат .3ds, возможно если напишу под него парсер буду им пользоваться, под модельки с костями пока юзал fbx ну и obj, но obj редко, хочу выйти на уровень чтоб парсить нужную инфу на модельку и кидать просто 3-4 списка последовательно так вроде проще если либо бд использовать или сериализацию, тут правда есть нюансы как кидать списки - raw данные, но победа в том что потом при присоединении обьекта в структуру проекта он парситься не будет

Tabletop Simulator понимает только OBJ для моделек. Ну и для печати STL, мне не для анимации.

С чего бы им лососнуть, у них все будет в порядке, нормальные модели, сделанные людьми, как были, так и будут востребованы. К тому же, обучение генеративных нейросетей, зачастую напоминает воровство, скорее будут накладываться ограничения на такие модели, хотя, перспективы моделей для генерации качественных и функциональных 3D объектов под вопросом, учитывая пониманимание специфики изнутри.

голова самое сложное если реально делать и без референсов а по обрубовке которая есть в реале, ну если она референс) тоесть мышкой на глаз по пропорциям в блендере причем реф не в пк, получается самое сложное руки и голова

Ну, я вижу, что у вас довольно общие и абстрактные представления о моделировании, особенно о моделировании с учетом будущей сферы применения модели. Ну да ладно, не мне развеивать какие-то мифы или учить вас.

общие представление, а как же тогда делать голову, если нужна именно стиль обрубовки вы предлагаете сначала рисовать референс тоесть переносить соскульптуренный купленный референс в магазине и в блендер тащить картинку, зачем если блендер отвечает всем параметрам на перенос ощущения обьема от увиденного блендер буквально и для этого придуман, голова самая сложная часть, если руки еще можно как-то перекинуть в формулу, то голову врятли, да и руки все равно придётся мышкой делать, я написал про голову и руки, потомучто чтобы уйти от словосочетания воровство в диджитал модельках придётся делать руками модельку с головой и руками, и потом её анимировать - руками - тоесть мышкой это вполне доступно сегодня, весь пайплайн от общего к частному на персонажа со всем необходимым для порта в движок (ну или покупать систему анимирования(там где костюм), но проще собрать модельку и сделать риг самому)

Интересно, можно ли подобную нейросеть приспособить к 3д кад системе для помощи конструктору, дабы избавить его от мелких манипуляций? Чтобы тыкать в нужное место модели и говорить голосом что тут нужно сделать.

А существует ли менее геморройный метод? Вот мне надо раз в пару месяцав слепить простенькую модельку и хотелось бы что-то типа в веб-интерфейсе скинуть 2d, наваять промптик в чате и получить 3d.

Я вот этими пользуюсь: картинку в модельку - TRELLIS, модельку по запросу - Luma. Обе онлайн работают, устанавливать ничего не нужно, но есть ограничение на число запросов.

Спасибо. А лимиты там сильно жесткие? А то с первого раза не всегда получается, и нужны корректировки. Я запустил, но пока не увидел этих самых лимитов.

Чтобы получить что-то вменяемое, нужно гораздо больше. Особенно если генерация по картинке. Тут или потом в том же Blender править или в другом редакторе или CAD, но для мелочей и косяков проще параллельно на 2D картинке что-то дорисовать и перегенерить. В среднем по 20-30 генераций получается до удобоваримого состояния.

Trellis ставится локально, поищите на Хабре в этом месяце была статья, там элементарно все и простейший интерфейс на Gradio. Но настроек минимум и по качеству мешей мне меньше понравилось, хотя генерит в разы быстрее (порядка 20 секунд превью графики и 30 секунд меши с текстурой).

так меш еще пол беды

Скрытый текст

такой меш делается примерно за ну час максимум, основная проблема будет стыковка стыков (локти и колени и основная ситуация определения нужны ли пальцы и стопы ) соотв всё так или иначе упрется в анимации, кстати меньше такого меша врятли нейросеть сделает с промпта тут 1к полигонов

с минимальной головой будет 2к полигонов и около 700 - 1к вершин

эх думал если открывать картинку не будет приближать

вобщем как по мне проще делать модельки, вот как с анимациями быть, пока только я додумался весь пайплайн делать вручную - низкополигональные меши, и вручную ставить кости и вручную настраивать, но это дело долгое и муторное там потом можно заметить что целый год делаешь модельки впрок, а их на контент надо допустим на среднюю игру оч много, у меня так пока

Мне искренне смешно чуть ли не под каждым постом про ИИ читать очередные предсказания что ии не сможет того то или того то. Время идёт и они оказываются в дураках, каждый раз. Захотят - обучат модель что бы выдавала готовую 3д модель по отдельным мешам. Это так же условно разбивается на математические формулы, как и генерация картинок с котами. До начала "пандемии" с развитием генеративного ии видел иногда тезисы что искусство и творческий труд неизмеримы никакими науками. По факту это самолюбие разобрали на кучу винтиков)

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации