Pull to refresh

Comments 25

либо совсем немногим дольше ждать финальной прорисовки сцен за счёт ощутимой экономии на электричестве

Ощутимой ли? Из расчетов, которые я видел, следует, что за год набегает разница порядка тысячи рублей. Это несерьезно, разве что понадобится собирать кластер.
Я потерял чудный сайтик, который вместе с прочими характеристиками еще и стоимость содержания показывает, но, скажем, вот видео, демонстрирующее (6:01), что будет, если энергопотребление увеличить вдвое (тут для процессоров, и методики измерения меня смущают, но, скорее всего, если сделать нормальные испытания, результаты на порядок не поменяются). Это при нагрузке 100%. Я не особо в курсе специфики работы дизайнеров, но я сомневаюсь, что они 24\7 что-то рендерят. Скорее всего, видеокарта вместе с процессором в это время практически простаивают, а в этом случае разницы видюхами AMD и Nvidia практически нет. Процессор, монитор и кофемашина вместе перекрывают эти несчастные 100 ватт.
www.youtube.com/watch?v=IeIFj-3RYKU
Я не особо в курсе специфики работы дизайнеров, но я сомневаюсь, что они 24\7 что-то рендерят.


Задачи у дизайнеров разные бывают :) Я недавно нагрузил два своих компьютера 750 кадрами графики формата FullHD (в среднем по 22 минуты просчёта на один кадр), получилось чуть меньше недели без перерыва. Apcupsd в среднем ватт 280-300 показывал, т. е. если взять по максимуму, 600 Вт (300 Вт х 2 компьютера) х 5,7 дней (137 часов) получается ~ 80 кВт⋅ч электроэнергии. Берём актуальный с июля 2015-го тариф в 4.12 рубля, умножаем и получаем примерно 340 рублей (для простоты подсчёта значения округлил). И это всего за 6 дней. С прожорливыми на 66,7% видеокартами я бы раскошелился на 565 рублей. Мог ошибиться в расчётах, поправьте если не прав, но «картина маслом», как говорится :)
200 рублей разницы, если учитывать 8% ускорения. По хорошему, потребление процессора тоже надо скостить, ну да ладно. Предполагаю, что до этого вы работали дольше чем неделю. Вероятно, не бесплатно. :) Т.е. да, разница есть, но сколько-либо существенным фактором в выборе железа я бы её точно не назвал. А в блендере есть какие-нибудь инструменты, позволяющие настраивать качество картинки? Пожертвовать качеством отражений в каком-нибудь темном углу и сразу выиграть часов десять на рендер, скажем. Вот здесь уже можно разглядеть потенциал для экономии.
200 рублей разницы, если учитывать 8% ускорения

Так это же за 6 дней. В месяц хотя бы по паре таких проектов и — та-да-а-ам! — за год солидно набежит.

А в блендере есть какие-нибудь инструменты, позволяющие настраивать качество картинки?

Да, Blender Cycles достаточно полноценный визуализатор, можно настраивать параметры и добиваться меньшего времени рендеринга, но в разумных пределах, иначе шум (sampling noise) будет заметен, да и качество материалов может начать быть «пластилиновым».
Ну чтобы такой проект собрать, нужно хотябы неделя, в лучшем случае. Ну не будете же вы ради фана рандомно 10 000 обьектов раставлять и настривать самые причудные материалы :). Автор комента выше это упомянул. Тоесть в случае полной занятости набежит порядка 24 таких рендеров. При хоббы, в лучшем случае 15 рендеров или 3000 рублей разницы, не так уж и много если это хобби объединить с комерческой составляющей (халтурки разные). И еще вопрос: есть ли возможность останавливать рендер? К примеру если есть 2-3х тарифные счетчики, то можно ставить только на самый дешевый тариф рендереться, и профит по цене будет солидный. Правда время рендера также солидно увеличиться.
При хоббы, в лучшем случае 15 рендеров или 3000 рублей разницы, не так уж и много если это хобби объединить с комерческой составляющей

На «экономической» составляющей свет клином не сошёлся. Есть более важные ограничения, я об этом в публикации в предпоследнем абзаце упомянул. А так — да: я готов платить чуть больше за электричество при условии лучшей производительности.
есть ли возможность останавливать рендер?

Только при покадровом просчёте, если рендерится последовательность кадров анимации. Перезапуск просчёта статичной графики пока невозможен. Это один из milestone'ов будущих изменений программы.
Кстати, да, совсем забыл. Ещё одна сторона «прожорливости», особенно в летнее время: тепловыделение и шум вентилятора системы охлаждения. Аргумент? :)
но в разумных пределах, иначе шум (sampling noise) будет заметен, да и качество материалов может начать быть «пластилиновым».

Нет, про глобальное качество это понятно. А более локальные изменения можно сделать? Никто не будет придираться, если однотонная серая область будет чуть более однотонной. Никто не будет разглядывать, что тень от камешка на заднем плане нарисована чуть более грубым алгоритмом, чем остальная сцена. Вот что-то в таком плане есть? Мало ли, мне пришла в голову божественная бизнес-идея.
Аргумент? :)

Если на то пошло, а сколько стоит аренда фермы для рендера? У них и электричество оптом, и железяки мощнее. При таком раскладе вам и на дискретную видяху тратиться не надо при более быстром результате.
А более локальные изменения можно сделать?

Ну, это лучше на конкретных примерах. Если абстрактно, то да — вручную можно детали подшаманить, например, «запечь» бэйком тени, отражения и прочее.
а сколько стоит аренда фермы для рендера?

Дешевле виртуальный сервер на Амазоне арендовать. Интересовался этим вопросом когда-то. Но это вариант для оплаченных заказов, если клиент смету утверждает. А есть ещё «условно бесплатное» хобби, для которого ни фермы, ни сервера могут не окупиться.
При таком раскладе вам и на дискретную видяху тратиться не надо при более быстром результате.

Фишка Blender Cycles в интерактивности — в том, что в реальном времени можно настроить шейдеры, выставить освещение. Для этого, в принципе, и маломощная «видюха» подойдёт. А рендерить с финальным качеством можно после на крутом рендер-сервере. Но какой же кайф работать в программе на достаточно быстром «железе», когда прорисовка сцены получается почти мгновенно. Короче, без дорогой карты, физически присутствующей «под столом», как ни крути, никак.
Увы, но указанный на коробке TDP и реальное энергопотребление в различных задачах довольно сильно отличаются.
Та же GTX 980 будет в среднем потреблять 190 ватт в игре при 1080p и локе на 60 фпс, но стоит её серьёзно нагрузить и получите энергопотребление под триста ватт.
В тесте под нагрузкой Radeon R9 390X выдал на 20% больший аппетит в сравнении с GTX 980. Но, благодаря каким конкретно задачам получили такой результат — не ясно.
Блииин(( Неужели моя 6970 считается дропнутой в плане поддержки уже? Вроде не из самых слабых, флагман недавний все-таки. Надеюсь бэкпортируют. Очень интересно попробовать.
Так разница в производительности с текущими всего около 15%…
Зато микроархитектура другая: там и шестидесяти четырёх разрядные инструкции, и гетерогенный доступ к памяти, и современные спецификации, да и тот Mantle API. Когда выпустили первые APU «Llano» они тоже поначалу сливали более старым Атлонам, но затем архитектура доказала свою эффективность.
Эх. Менять сейчас на что-то сопоставимое по мощности просто непотребно по цене(
AMD Radeon HD 7970 в зависимости от состояния использования, вплоть до заводской упаковки, можно найти по цене от 6 до 10 тысяч рублей. Для сравнения, я свой 7950 покупал где-то 3,5 года назад за 13.
Менять сейчас на что-то сопоставимое по мощности просто непотребно по цене

Вы в сторону 290X-390X смотрите? Есть более интересные по цене варианты. Например, Radeon R9 280X с 2048 шейдерными процессорами на борту. Стоимость от 8,5 тыс. рублей. (в Краснодаре, правда, дороже 10 тысяч). У Radeon 6970 число вычислительных устройств равно 1536. Вполне сопоставимо, даже «с запасом». Или, как вариант, — R9 285 (1792 «ядер»).
Надо бенчмарки сравнить, чтобы относительные попугаи сравнить. Как минимум мой килограммов брусок трубок и меди ещё и воет под нагрузкой адово.
В качестве дополнения. В черновике для этой публикации была информация, которую я удалил из «финальной редакции»: R9 290X («предшественница» 390X) стоит сейчас в районе 20 000 рублей (видимо, распродажа в связи с выходом новых устройств). У этой модели сходные с 390X характеристики, включая количество универсальных шейдерных процессоров — 2816, но всего лишь на 15 Вт большее энергопотребление. Возможно, для кого-то сэкономленные 10 000 рублей могут оказаться существенным бонусом при выборе видеоадаптера.
Выбор очевиден и это огорчает.


Не стоит верить всем надписям на коробке.
У GTX 980 сильно порезаны FP64 операции, а указанное значение в 165 ватт очень «специфическое» — при постоянной нагрузке она будет жрать те же 280-290 ватт.
Так что на электричестве экономии не будет.
Не стоит верить всем надписям на коробке

Верю не только «надписям на коробке», но и тестам визуализации (более значимому критерию) — в публикации есть ссылка на тест LuxMark 2.0. Про «экономию» уже ответил выше — не самый важный момент. Я рассматривал комплекс «плюсов» и «минусов». Один фактор сам по себе немного решает.
Sign up to leave a comment.

Articles