Pull to refresh

Comments 31

Геометрия и текстуры для одного кадра занимают на диске более 70 ГБ. Это потрясающий пример низкого профессионализма тех, кто создавал эту сцену.
Вот эта картинка имеет 40 тыс. полигонов.
image
1996 г. Графическая станция Ingigo-2.
Какая связь между весом одной СЦЕНЫ и скриншотом из старенькой архивизной проги с указанием кол-ва полигонов?
Может я тупой и не понимаю глубины Вашей мысли.
Но, я подумал, что связь самая прямая — в количестве полигонов на сцене.
Кроме того, на диске тоже полигоны (часто) хранятся в виде мешей.
Больше всего места занимает не геометрия, а кэш симуляций (жидкости, снег, волосы, ткань, анимации и тд) и текстуры. А голая геометрия в 20 млн полигонов (взято с потолка, вполне нормальная цифра, я думаю, для целей визуализации) будет весить пару гигов и это вполне ок.
А голая геометрия в 20 млн полигонов — здесь я согласен, спасибо.

Хотя в сцене очень много деревьев. И одно только дерево может весить 1 млн полигонов.
У меня есть такие деревья.
У диснея, я думаю, они (деревья) еще и сделаны по иным технологиям.
Вот это меня и заинтересовало.
Потому и комментарий дал.
Из Readme к сцене:
The scene is made up of 20 elements containing meshes with more than 90 million unique
quads and triangles along with 5 million curves. Many of the primitives are instanced many
times giving rise to a total of more than 28 million instances of everything from leaves and
bushes to debris and rocks. When everything is fully instantiated the scene contains more than
15 billion primitives.


90 миллионов квадов/треугольников. 20 действительно маловато для фильмовой сцены. Плюс все это хранится в .obj (геометрия всмысле), который текстовый, что тоже увеличивает вес по сравнению с бинарными форматами
Ага, и деревья им надо было сделать билбордами.
Не нужно только глумиться.
Сцена моя 22-х летней давности.
Очень крутая статья. Интересно насколько реалистичной будет полнометражная анимация через скажем лет 10-15, когда алгоритмы еще больше оптимизируют, а железо станет еще более производительным? Может даже для этого будут распределенные вычисления, я б поучаствовал своим железом в создании какого-нибудь мульта :)

я один из создателей рендер фермы для вычисления мульта буба. На cpu считать глупо, очень глупо, т.к дорого. Мы начинали с cpu, потому что gpu не умел рендерить шерсть, но сейчас шерсть на gpu идет неплохо. Считаем мы на 12 видеокартах где-то, все полностью от отдельных картинок до финалки. На рабочих станциях по 1 cpu. разница между видеокартой и процессором в 10-100ни раз.

Что за рендер, который и на цпу и на гпу, и что бы до сотен раз быстрее на гпу?
Как я понимаю, спрашивать как бы эта сцена диснеевская (или иная киношная) поместилась в память гпу не стоит?
Arnold, результат всегда будет разный, зависимый от сотен факторов, в нашем случае так. Нужно откопать таблицу с тестами, там смогу сказать точное кол-во, но как скоро смогу откопать, сказать не могу, полтора года прошло
А как вы получили гпу арнольд? я знаю что он сейчас в чем-то вроде закрытой beta, не могли бы вы у своих узнать сложно ли выбить доступ от компании? Буду благодарен
Напишите в саппорт, решилось как-то крайне элементарно, на сколько помню по первому же запросу стать тестерами, как текущие клиенты их компании
Arnold GPU чем то отличается от обычного в плане рабочего процесса?

Gpu пока что только для несложных мультов и волосатых шариков в эвридейках. Сейчас ни один ГПУ рендер не в состоянии съесть даже десятой части геометрии текстур и сиквенций волюмов как в сабжевой сцене. А парситься это будет очень долго. В большом продакшене царствуют arnold, mantra, и немного vray, оптимизация и скорость работы которого меня иногда пугает) У мейджоров, разумеется, свои решения, но я сомневаюсь что они на gpu.

при рендере, в нашем случае Arnold, нужна скорость и кол-во процессоров, tesla тут заоблочно по деньгам выходит. Хотели тестить v100, но не нашли у кого на тесты взять. Да и при нынешней цене 1080, нам проще раз в несколько лет выкидывать сломанное от 24*7. Потом явно наблюдали зависимость кол-ва и скорости процов на скорость отработки задачи.
А в чем заключается сложность мульта?
Если в кол-ве объектов детализации, то просто доставляются рендер ноды с 4GPU, а уж рендер сам по ним раскладывает, не хватает производительности-добавь нод. По крайне мере у нас такая картинка происходящего. Рендеры уже параллеляться и 3-4GPU в ПК без всяких SLI успешно работают. Вопрос только в цене и GPU выходит дешевле. У нас вот вышло, что докупить пару нод дешевле, чем отправлять финальный просчет на коммерчесскую ноду на GPU, сейчас не помню уже за сколько окупилась, но меньше чем за год наверняка.

PS я админ, для тестов и реального понимая внутренностей у нас спец человек.
Честно говоря, для меня — большой вопрос ограниченная производительность gpu рендеров: первое что приходит в голову — ограниченное кол-во ram на борту. Но я, как практик, могу сказать что два самых популярных коммерческих gpu рендера (Octane, Redshift) при тестах в моей работе (пром. виз ролики и архитектурка) показали неспособность сколь-нибудь быстро съедать и переваривать сцены хотя бы с 4М поликов (Modo+Octane, C4D+Octane, C4D+Redshift), на парсинг уходит адово время. Делать превьюхи и настраивать лайтинг в этом случае крайне неудобно. В то же время можно загрузить какую-нибудь очень тяжелую сцену (>100м поликов) и увидеть превью в vray rt через 40 секунд.
image
image

При тестах Ocatane я брал 3 вида деревьев из этой сцены, а тут разной растительности около 40 единиц (~500-1200k poly каждое), инстансил их на плоскости ~ 200шт. и подумав минут 10 октан с грустью падал.
Помимо этого я только поверхностно представляю математику современных рендер движков, и кучу всего типа SSS сложно было переводить на GPU. В итоге всё равно будет какой-то симбиоз

PS я админ, для тестов и реального понимая внутренностей у нас спец человек


очень интересно было — бы послушать его мнение по поводу gpu рендеров и тяжёлых сцен
Спасибо, интересно. Можно еще полюбопытствовать?
Считаем мы на 12 видеокартах где-то
— какова конфигурация, по сколько видеокарт стоит в одной машине?
разница между видеокартой и процессором в 10-100ни раз.
— как происходит обсчет, каждая видеокарта считает отдельный кадр или как?
Какова скорость рендеринга, за сколько рендерится кадр?
Если детально описывать выбор железа и ПО, то потянет на отдельный обзор на этом ресурсе, я подумаю как лучше написать и расписать почему, что немаловажно, но боюсь за мои ошибки, а пишу я неграмотно — меня заминусят)
Мой вопрос был вопросом сугубо любопытствующего обывателя (в данной сфере). Поэтому зачем так усложнять, достаточно было двух-трех строчного ответа. Но если это вдруг внезапно секрет — я не обижусь. :)
А напишите статью. Если опасаетесь, что из-за грамматики оценят плохо — пришлите мне, я вычитаю.
На cpu считать глупо, очень глупо, т.к дорого.

Да именно по этому на CPU считают практически все рендеры (PrMan, Arnold, Moonlight и тд.), на видеокарте нормально не посчитаешь, в память тупо не влезут достаточно большие сцены (если делить то индирект будет выглядеть как говно), А поддержку GPU добавляют не для того чтобы считать финальный результат а для артистов чтобы шейдить в IPR режиме, ибо Gpu рендер не очень стабильный, арнольд юзает оптикс как бэк для гпу, а там косяков предостаточно. (Работаю в RnD отделе WizartAnimation)
Интересно насколько реалистичной будет полнометражная анимация через скажем лет 10-15, когда алгоритмы еще больше оптимизируют, а железо станет еще более производительным?

Производительность с алгоритмами на реалистичность никак не повлияют. Даже сейчас все это прекрасно параллелится и рендерится за практически незаметные на фоне остального бюджета деньги.
Вы писатель-фантаст? Данные занимают всё отведенное для них место. Данные растут быстрее, чем процессор, GPU и оперативка. Гэп между оперативкой, GPU и процессором тоже растет. Данные передавать сложно. Вся проблема в передаче и подготовке данных. Закон мура уже не работает. Да, мы будем получать лучшую картинку. Но она не будет как Half-Life 1 и Half-Life 2. Она будет как BF1 и BF V. Тоесть получше, но не в разы. Пока не поменяют железо и представление данных там (воксели, полигоны, кеш процессора), то скачка не будет.

> Может даже для этого будут распределенные вычисления
Это есть уже лет 40. Называется рендер-ферма.
Я думал уже давно уходят от парадигмы 'тупо полигоны' к объектам и алгоритмам их генерации.

Т.е. вместо того чтобы сначала создавать миллиарды полигонов леса и потом пытаться их протащить через бутылочное ушко шины данных, достаточно загрузить в рендер алгоритм их генерации и стартовые данные однократно, а дальше для каждого дерева достаточно передавать их метаданные — атрибуты генерации.

Все разумеется именно так, но уникальной геометрии в сложных сценах и без репликации очень много.

Sign up to leave a comment.

Articles