Pull to refresh

Comments 87

Когда брал год назад свою GTX460, даже не задумывался о монтаже. Когда же увидел на практике, как это чудо работает — понял, что следующая видуха у меня будет тоже NVIDIA, хотя до этого стабильно сидел на радеонах. CUDA — это очень крутая штука!

Добавлю свои впечатления:
Часто приходится монтировать ролики качества mp4@1080p длительностью 7 минут — многослойный монтаж (от 3 до 10 слоев одновременно с переходами, в основном без фильтров). Рендеринг без меркури длится примерно 5-6 часов (на слабеньком Athon II X3 3,2ГГц) — при этом во время рендеринга компом невозможно пользоваться. Рендеринг того же видео на GTX460 — 1-1.5 часа. При этом параллельно можно преспокойно смотреть сериалы или серфить. Профит, как говорится, на лицо.
Всё же CUDA — хороша, не спорю, однако не стоит забывать, что «чистая» производительность у AMD Radeon тех же поколений — выше (хороший пример — майнинг биткоинов). Так что если заставить работать на AMD Radeon — будет ещё веселей.
Вся производительность сводится к практическому применению. Если бы Adobe Premiere научился так же использовать радики, с удовольствием вернулся бы назад в стан красных.

А фарм биткоинов для меня лично — очень спорное применение вычислительных мощностей ПК.
Ну фарм биткоинов это как показатель производительности :) Сам печалюсь, что не хотят использовать красно-белых, но пока сижу на 6970.
К сожалению, это спорный момент. Не всегда AMD выигрывает у CUDA и наоборот.
Вопрос в том, почему Adobe не сделала OpenCL реализацию?? Думаю, что там не все так просто.
Могу лишь предположить, что к началу старта разработки этого дела в адоби, опенцл еще был слишком молодым и сырым.
Ответ на ваш вопрос простой: $.
Как раз если бы вопрос был в $$$, то правильнее всего было бы делать на OpenCL — рынок больше, т.к. сейчас это NVIDIA, а так это NVIDIA и ATI.
А сколько, как вы думаете, отмаслала нвидия за использование CUDA, и что распространённей, квадры или фаерГЛ?
NVIDIA ничего против Open CL не имеет и так же участвует в его развитии. Просто CUDA правда был до появления Open CL. В идеале обе конторы собираются в последствии утвердить единый Open CL стандарт для GPU.
Сколько, поделитесь с нами?
С такой активностью, как у ATI/AMD ничего удивительного, что FireGL так сильно «распространён».
Все горазло проще. nVidia финансировала реализацию CUDA в продуктах Adobe, и скорее всего на эксклюзивных началах.
радеоны быстрее считают операции с целыми числами, поэтому лучше подходят именно для майнинга (сдвиги, ксоры и.т.п).
А у нвидии лучше реализована работа с числами с плавающей точкой, поэтому говорить тут о «чистой производительности» как минимум некорректно
Не пробовали разблокировать четвертое ядро?
Если материнка это не поддерживает, обновите биос, глядишь появиться такая фишка.
пробовал, к сожалению мне с камушком не повезло — 4-е ядро открывается, но работает нестабильно и с ошибками, да и греется гораздо сильнее.
Боюсь что ваши изображения легли вместе с сервером на котором хранились. (
Есть такой момент — теперь я знаю, что такое Хабраэффект.

В следующий раз я положу картинки на более устойчивый хостинг. В следующий раз я положу картинки на более устойчивый хостинг.
Фотки срочно перезалить на habreffect или img.leprosorium.com
habreffect.ru уже почил с миром весьма давно…
Сделано! Спасибо за помощь.
8 килорублей? Может, стоит лучше докинуть 30-40 баксов и взять 560ti вместо двух задохликов? А со временем возьмёте вторую.
Зачем докидывать? Она 7-8 как раз и стоит. Хотя от региона к региону цена разниться, конечно.
А карта и в самом деле стоящая своих денег.
Так, то оно так, но у чувака ТРИ монитора и проектор.
Именно так, причем мониторы разного возраста и класса, поэтому брать карту с кучей DisplayPort было не подходящим решением. Оставалось только взять две обычные карты.
UFO just landed and posted this here
да какого хрена извините меня вы считаете контракт между производителями — аргументом? Они деньги зарабатывают и им срать на вас, если завтра эпл, какой-нибудь завод «иннокентий» предложит аналогичную мощность и качество по меньшей цене то в маки начнут ставить «инокентиев»

Сравнение скорости майнинга видеокарт — аргумент
Сравнение скорости рендеринга и возможности — аргумент
Сравнение производительности — аргумент
В конце концов сравнение цены — аргумент
Эпл — не аргумент!

P.S. И не надо думать что я фанбой нвидии, сам нахожусь в лагере красных с радеоном.
UFO just landed and posted this here
Это говорит только о том, что продукция удовлетворяет стандартным требованиям заказчика, и не более того. Все остальное — результат частных соглашений.
И специально для фанбоев и любителей громких брэндов: В 70-х годах на Бентли и РР ставились моторы и коробки производства GM от линейки Бьюиков. И только потом РР начал делать все свое.
Прагматичный подход во всей красе.
Потом РР начали агрегатироваться моторами БМВ. А Бентли — VW.
У меня тут за спиной материнка фоксконовская с дутыми конденсаторами лежит…
UFO just landed and posted this here
Вообщето профессионалы обычно делают так (для рендер-серверов, монтажек и т.п.):
1) Покупают макпро
2) Вынимают радион и выкидывают
3) Ставят Нвидиа

причём на вопросы к маковцам зачем там изначально стоит радион, они отвечают что-то вроде «мы всё равно знаем что профессионалы поставят туда нвидиа, но мы деньги зарабатываем на том что впариваем никому не нужный радион»
UFO just landed and posted this here
Final Cut оптимизирован под Open Cl, поэтому там Radeon.
OpenCL поддерживается и NVidia тоже.
Кстати, могу сказать со 100%ой уверенностью, что постинг чужих постов с указанием авторства по причине «мало кармы» администрацией очень не приветствуется (Прецеденты были и не единожды). Возможно, покопавшись в правилах, вы найдёте соответствующую статью, но если вдруг вам влепят недельку рид-онли, попросят перечитать правила в принудительном порядке или ещё чего — я предупредил ;)
Вы оказались чертовски правы и меня действительно забанили, причем сразу после вашего поста. Каюсь. Слава богу, респаунулся и сейчас отвечу на все вопросы :)
p.s. мы не специально это сделали — мы думали, что это и есть наиболее корректный путь попасть на Хабр :)
Я просто очень тесно сталкивался с этой ситуацией ;)
А чем вы измеряли потребление ПК во время рендеринга?
У меня БП Therlamaltake со специальной панелькой, которая якобы указывает полную потребляемую мощность. Злые языки говорят, что панелька — полное фуфло и рекламный трюк, но я нарочно сравнивал ее показатели с показателями двух разных UPS, и они совпадали с точностью до 10-15%. Так что, считаю для грубой оценки ее показания приемлемыми.
В очень хорошем стиле статья написана, у вас определенно талант увлекательно писать технические статьи!
Над многими обзорами просто умираешь со скуки, но не над вашим.
Большое спасибо! Я старался, и в будущем надеюсь оправдать ваш отзыв.
Я бы не был таким поспешным в вывода на счет CUDA, да есть у нее преимущество, но при нормальной распараллеливании процессов и обработки фото, лично могу сказать разница в 2-6 раз при обработке изображения 5000х6000 пикселей, при этом Х3 разлоченный до Х4 по сути 640… ради интереса реализовать бы в поточности и сравнить результаты с CUDA…
Не совсем понятно, что вы имеете в виду?
UFO just landed and posted this here
Только не очень понял — вы тут перепрошивали GTS450 под линейку квадро, превращая её программно в карточку этой серии, или напрямую включали GPU ускорение?
Обманули премьеру, заставили работать с тем, что есть, никто из 450ки квадру не сделает.
С помощью утилиты GPUSniffer.exe (заботливо лежащей в корне директории Premiere) определяется название карты и вписывается к специальный текстовый файл. После этого Premiere подхватывает любую карту на современном чипе nVidia и с более чем 896 МБ. памяти. Подробнее по ссылке в начале статьи.
Не совсем очевиден вывод про то, что слабым местом при одновременном воспроизведении двух FullHD видео является видео-карта. В статье ничего не сказано про то, какая система хранения данных использовалась — если это обычный винчестер, то тут даже вопроса никакого стоять не может. Ну и описанная ситуация с «уже через пару-тройку секунд картинка «залипла»» вполне характерна — видеокарта прекрасно справилась с тем, что смогла получить без задержек из кеша жесткого диска в оперативной памяти.

Так на чем у вас данные лежали?
Просто исходя из своего опыта успешного просмотра фильма Аватар в FullHD, одновременно с процессом его перекодирования из файла размером 40Гб в файл размером 4Гб, проводимого на GT240, такой затык в производительности на GTS450 кажется мне невероятным. В моем случае чтение производилось с RAID-10 собранного на 2-х дисках (при использовании RAID-0 в Linux чтение производится только с одного, поэтому был использован RAID-10). И всё равно у меня было ощущение, что затыкается всё на дисковой подсистеме.
Я имел ввиду RAID-1, конечно же, который зеркалирование, а не чередование. И RAID-10 был настроен на зеркалирование, то есть в stripe в нем было по одному диску.
UFO just landed and posted this here
Вся нагрузка была на seek головок туда-сюда на кусочки кадров из двух файлов. Надо либо с SSD винта такие штуки тестировать, либо ложить смешиваемые видеопотоки на разные (и физически, и логически) жёсткие диски.
Да какая разница куда ложить, если приведено два примера в одинаковых условиях с одним отличием и в одном случае работает, в втором нет?
Давайте уточним, о каких именно двух примерах идёт речь
Это очевидно — из этого поста. С включенным CUDA и не включенным.
В посте три примера:
1. Два файла с CUDA (медленно)
2. Один файл с фильтрами с CUDA (быстро)
3. Один файл с фильтрами без CUDA (медленно)

Речь в данной ветке коментов о том, что первое «медленно» является причиной параллельного чтения разных файлов с одного физического жёсткого диска, а не в скорости CUDA. Даже рейды в этом вопросе не спасут, только физическое и логическое разделение входящих потоков по разным механическим дискам. Либо SSD.
Да, виноват, был не прав. Перечитал еще раз.

Но там указанно, что два слоя h264 и три mpeg2. h264 более «плотный», тоесть если затык при чтении, то его скорее надо ждать от mpeg2 — там на теже кадры надо считать больше, а обсчитать меньше?
затык не при самом чтении, а при подготовке к чтению (пока головка бежит к нужной дорожке). поэтому от размера кадра в байтах практически ничего не зависит.
Мне кажется вы преувеличиваете задержки от seek в данном случае. Всё равно это будет потоковое чтение, с которым у hdd проблем нет.
Потоковое чтение — это когда нет seek. Когда есть seek после каждых 100 килобайт на переключение между файлами, вам и 2 мегабайта в секунду на современных механических винтах не получить.
Вообще да, если прикинуть битрейт, то он не выглядит как слишком большой для жесткого диска. Скорее всего и правда в данном случае нагрузка на видео-карту гораздо больше чем при простом просмотре и кодировании видео, всё-таки композиция двух видео-потоков сложнее на порядок…
UFO just landed and posted this here
Чем кодировали? Давно ищу нормальный кодировщик с поддержкой CUDA, в основном какие-то шароварные поделия.
mencoder с vdpau-кодеком, это не совсем cuda… ну и насколько я понимаю он только под linux такой есть… под windows не знаю…
Отвечаю сразу всем:
— данные в экспериментах лежали на SSD Intel ssdsa2m080g2gc
— поток MPEG2 1080p шире, чем h264 и составлял 35 мегабит, т.е. всего около 4,375 мегабайт в секунду. Это совсем немного даже для классических HDD
— в экспериментах я использовал один и тот же небольшой фрагмент видео, накладывая его на самого себя. Таким образом, программе необходимо было считывать только один небольшой 150 МБ. файл, скорее всего она полностью кэшировала его перед началом расчетов

Таким образом затык был точно не в дисковой подсистеме, что кроме меня еще может подтвердить статья-сравнение SSD-HDD на iXBT
Спасибо, вопрос о затыке в жестком диске отпадает :-).
Я так и не понял, было у вас две видеокарты в SLI или одна.
Две одинаковые видеокарты в независимом режиме. SLI-панельки у меня нет, и я не знаю, если соединить карты SLI-панелькой, можно будет выводить изображение сразу на 3 монитора? Пусть и с софтверным включением/выключением SLI-режима.
Можно. На работе тестировали работает.
Кстати пока не забыл. Иногда в nvidia control panel надо выставлять профайл SLI руками, так как автоматически выбираются только игры и некторые DX приложения.

Для OpenGL workstation приложений (например Maya) надо 100% выбирать профайл вручную.

Более того, слай можно вроде активировать по PCI-E шине, потеряв процентов 10 производительности.
Люди, кто реально монтировал с CUDA, есть ли разница в качестве, а то ходят слухи что GPU vs CPU сжатие\разжатие видео, качество не фонтан?
Есть подозрение, что разницы быть не должно. Т.к. GPU, понимаю, только в качестве сопроцессора.
На хабре была статья про OpenCL, в которой (или через которую) я узнал, что в OpenCL реализованы функции (тригонометрия и подобные), которые выдают приближенные значения, но работают намного быстрее. Была приписка наподобие «они более производительные, но неточные, и не могут быть использованы в научных вычислениях». Подозреваю, что при использовании нативных OpenCL-библиотечных функций для неких трансформаций при рендеринге могут появиться артефакты.
Поправьте меня, если я в чем не прав.
В том, что речь про CUDA? А можете дать ссылку на статью, а то мне кажется несколько странным такое поведение? Тем более, его скорее всего надо включать принудительно, а не по умолчанию.
Есть такая фишка и в OpenCL и в CUDA, но дело не в этом. Распространённые на сегодняшний день подходы к сжатию видео, во многом последовательны и содержат в себе много логики которая либо не распараллеливается в принципе, либо распараллеливается но с большими допущениями. Аппаратные видеокодеки это по сути специализированные векторно-скалярные процессоры, так-что в них и волки целы и овцы сыты :-) Но с GPU так не получается. Вот jpeg2000 и ему подобные, на GPU пошли бы хорошо в силу своей параллельной природы, но с jpeg2000 мы сталкиваемся только когда кодируем\смотрим DCP для кинотеатра, в большинстве же случаев мы используем кодеки с сложной последовательной природой, которая в полной мере шейдерам не по зубам.

Вот посмотрите картиночки в прочем они не так выразительны…
Сам я задумался о применимости CUDA когда попытались её припакхать к сборке\разборке BlueRay3D дисков. Она занимала много времени и CUDA тут конечно же ощутимо помогла, но сравнивая результаты кодирования CPU и GPU было очевидно что кимоно-то херовато! Причём в динамике это заметно больше чем на стоп кадрах, а до того момента я искренне полагал, что моушн эстимейт и статистический анализ энтропии кадров, выполняются CPU а на GPU только дискретно косинусное преобразование, но походу я ошибался…

Но опять же восприятие штука субъективная, вот я и спрашиваю, как оно в реальной работе, чисто субъективно, не страдает ли качество?
Друзья, если вас не затруднит, сообщите мне в личку, интересно ли вам будет продолжение экспериментов на более новой материнской плате и карте Quadro 4000, которая, словно сыр с хабра неба, упала мне в почту сегодня утром :)
UFO just landed and posted this here
Да, друзья, хочу добавить, что этот пост был написан специально в поддержку статьи Сколько стоит кино?. Все скриншоты поста — из фильма :)
А патчей нет для работы с i7 Sandy Bridge? а то смотрел обзор на anandtech.com так там видео с quicksync-ом и по скорости лучше и по качеству в сравнении с GTX460
Only those users with full accounts are able to leave comments. Log in, please.