Comments 32
А кто это «мы»?
Мы это авторы оригинального поста — Kevin Karsch, Varsha Hedau, David Forsyth, Derek Hoiem. Этот пост — перевод, ссылка на оригинал внизу.
Ссылки внизу под текстом нету!
Странно, вроде не первый день на Хабре…
Как правило ссылку на источники, дополнительные ссылки и т.д. дают сразу после текста статья, а не обходятся дополнительным полем которое стоит после рейтинга, даты, закладок и социалок.
Да я не заметил и да я не первый год на хабре, но привычка журналиста сильнее новых фич и срока проведенного на сайте.
Плюс такой подход к переводу не правильный и автор оригинального текста может попросить внести изменения.
Да я не заметил и да я не первый год на хабре, но привычка журналиста сильнее новых фич и срока проведенного на сайте.
Плюс такой подход к переводу не правильный и автор оригинального текста может попросить внести изменения.
метод хороший судя по видео, но где собственно метод? За перевод 2-х абзацев, конечно, спасибо.
Метод вот тут можно посмотреть. Длинное исследование на английском.
Качество видео очень плохое, за артефактами сжатия не видно детализации. Есть ли ссылка на HD?
На сайте авторов есть такая ссылка — kevinkarsch.com/publications/sa11.mp4. Посмотрите её, возможно там качество лучше.
Т.е. они научились воспринимать картинку как 3d мир? Это, безусловно, круто!
Нет.
По сути все сводится к определению отражательной способностипредметов пикселей и работе со светом.
По сути все сводится к определению отражательной способности
Результат неплох, это в фотошопе на час примерно работенка! если ее так оптимизировать, то эту круто! Жалко нет примеров с людьми :)
P.s. Оценил время, которое ушло бы у меня!
P.s. Оценил время, которое ушло бы у меня!
Судя по статье, освещение правильное только с примитивами, которые выделяет оператор. Человек — не очень такой просто примитив:), так что вряд ли будет очень качественно.
Смотря какой человек. Бывают…
Алгоритм умеет оптимизировать выделенные области, уточняя границы и тип источника света.
Как я понимаю, внедрять можно только объект созданный в 3D. То есть, если сделать фото-реалистичного человека в 3D, внедрить его будет также просто как и шарик. Проблема скорее в первом :)
И все это под открытой лицензией! не верю, пойду сам попробую…
Я кроме отчёта ничего не вижу, даже обещаний. С чего вы решили, что софт будет в открытом доступе, да еще и с исходниками?
www.luxrender.net/en_GB/index — скачать разные тулзы в том числе и сам luxrender
www.luxrender.net/en_GB/source_code — исходный код
www.luxrender.net/en_GB/license — GPL лицензия
ну и с того же сайта:
LuxRender is and will always remain free software. We are working on this program because we like doing so, because we enjoy seeing people use the program and because we consider freedom more valuable than money. Whether you're a starving artist or own a multi million company, we invite you to use this program and hope it will be useful to you.
www.luxrender.net/en_GB/source_code — исходный код
www.luxrender.net/en_GB/license — GPL лицензия
ну и с того же сайта:
LuxRender is and will always remain free software. We are working on this program because we like doing so, because we enjoy seeing people use the program and because we consider freedom more valuable than money. Whether you're a starving artist or own a multi million company, we invite you to use this program and hope it will be useful to you.
Я в курсе, что такое LuxRender. Но какое отношение он имеет к этой работе?
> Each method was rendered using the same software (LuxRender), and the inserted synthetic geometry/materials remained constant for each scene and method.
Их софт просто генерировал входные данные для LuxRender, а не являлся работой, основанной на нём, разве нет?
> Each method was rendered using the same software (LuxRender), and the inserted synthetic geometry/materials remained constant for each scene and method.
Их софт просто генерировал входные данные для LuxRender, а не являлся работой, основанной на нём, разве нет?
Демоны!
Процесс настройки материала для каждого объекта сцены, в видео скромно опущен. В целом, подобной техникой («отрисовка» реальных объектов примитивами, расположением источников света и настройкой материалов) достигаются аналогичные результаты в 3dsmax 5.0 + сторонний рендер, например.
Наверное, все же, есть какая-то изюминка, но в статье и видеоролике она не раскрыта.
Наверное, все же, есть какая-то изюминка, но в статье и видеоролике она не раскрыта.
Выглядит очень хорошо, но в некоторых примерах чувствуется нереалистичность. К примеру чайник на одном из слайдов выглядит слишком реалистичным (очень сильные блики) и выглядит нереалистичным, простите за каламбур.
Теперь снимки НЛО будут качественнее и более четкими
Похоже что это просто по 2 фотки) Добавьте невозможный объект, если не трудно…
Прям как магия
Sign up to leave a comment.
Рендеринг искусственных объектов на фотографии