Комментарии 87
Когда брал год назад свою GTX460, даже не задумывался о монтаже. Когда же увидел на практике, как это чудо работает — понял, что следующая видуха у меня будет тоже NVIDIA, хотя до этого стабильно сидел на радеонах. CUDA — это очень крутая штука!
Добавлю свои впечатления:
Часто приходится монтировать ролики качества mp4@1080p длительностью 7 минут — многослойный монтаж (от 3 до 10 слоев одновременно с переходами, в основном без фильтров). Рендеринг без меркури длится примерно 5-6 часов (на слабеньком Athon II X3 3,2ГГц) — при этом во время рендеринга компом невозможно пользоваться. Рендеринг того же видео на GTX460 — 1-1.5 часа. При этом параллельно можно преспокойно смотреть сериалы или серфить. Профит, как говорится, на лицо.
Добавлю свои впечатления:
Часто приходится монтировать ролики качества mp4@1080p длительностью 7 минут — многослойный монтаж (от 3 до 10 слоев одновременно с переходами, в основном без фильтров). Рендеринг без меркури длится примерно 5-6 часов (на слабеньком Athon II X3 3,2ГГц) — при этом во время рендеринга компом невозможно пользоваться. Рендеринг того же видео на GTX460 — 1-1.5 часа. При этом параллельно можно преспокойно смотреть сериалы или серфить. Профит, как говорится, на лицо.
Всё же CUDA — хороша, не спорю, однако не стоит забывать, что «чистая» производительность у AMD Radeon тех же поколений — выше (хороший пример — майнинг биткоинов). Так что если заставить работать на AMD Radeon — будет ещё веселей.
Вся производительность сводится к практическому применению. Если бы Adobe Premiere научился так же использовать радики, с удовольствием вернулся бы назад в стан красных.
А фарм биткоинов для меня лично — очень спорное применение вычислительных мощностей ПК.
А фарм биткоинов для меня лично — очень спорное применение вычислительных мощностей ПК.
К сожалению, это спорный момент. Не всегда AMD выигрывает у CUDA и наоборот.
Вопрос в том, почему Adobe не сделала OpenCL реализацию?? Думаю, что там не все так просто.
Вопрос в том, почему Adobe не сделала OpenCL реализацию?? Думаю, что там не все так просто.
Могу лишь предположить, что к началу старта разработки этого дела в адоби, опенцл еще был слишком молодым и сырым.
Ответ на ваш вопрос простой: $.
Как раз если бы вопрос был в $$$, то правильнее всего было бы делать на OpenCL — рынок больше, т.к. сейчас это NVIDIA, а так это NVIDIA и ATI.
А сколько, как вы думаете, отмаслала нвидия за использование CUDA, и что распространённей, квадры или фаерГЛ?
NVIDIA ничего против Open CL не имеет и так же участвует в его развитии. Просто CUDA правда был до появления Open CL. В идеале обе конторы собираются в последствии утвердить единый Open CL стандарт для GPU.
Сколько, поделитесь с нами?
С такой активностью, как у ATI/AMD ничего удивительного, что FireGL так сильно «распространён».
С такой активностью, как у ATI/AMD ничего удивительного, что FireGL так сильно «распространён».
Все горазло проще. nVidia финансировала реализацию CUDA в продуктах Adobe, и скорее всего на эксклюзивных началах.
радеоны быстрее считают операции с целыми числами, поэтому лучше подходят именно для майнинга (сдвиги, ксоры и.т.п).
А у нвидии лучше реализована работа с числами с плавающей точкой, поэтому говорить тут о «чистой производительности» как минимум некорректно
А у нвидии лучше реализована работа с числами с плавающей точкой, поэтому говорить тут о «чистой производительности» как минимум некорректно
Не пробовали разблокировать четвертое ядро?
Если материнка это не поддерживает, обновите биос, глядишь появиться такая фишка.
Если материнка это не поддерживает, обновите биос, глядишь появиться такая фишка.
Боюсь что ваши изображения легли вместе с сервером на котором хранились. (
Есть такой момент — теперь я знаю, что такое Хабраэффект.
В следующий раз я положу картинки на более устойчивый хостинг. В следующий раз я положу картинки на более устойчивый хостинг.
В следующий раз я положу картинки на более устойчивый хостинг. В следующий раз я положу картинки на более устойчивый хостинг.
Фотки срочно перезалить на habreffect или img.leprosorium.com
8 килорублей? Может, стоит лучше докинуть 30-40 баксов и взять 560ti вместо двух задохликов? А со временем возьмёте вторую.
да какого хрена извините меня вы считаете контракт между производителями — аргументом? Они деньги зарабатывают и им срать на вас, если завтра эпл, какой-нибудь завод «иннокентий» предложит аналогичную мощность и качество по меньшей цене то в маки начнут ставить «инокентиев»
Сравнение скорости майнинга видеокарт — аргумент
Сравнение скорости рендеринга и возможности — аргумент
Сравнение производительности — аргумент
В конце концов сравнение цены — аргумент
Эпл — не аргумент!
P.S. И не надо думать что я фанбой нвидии, сам нахожусь в лагере красных с радеоном.
Сравнение скорости майнинга видеокарт — аргумент
Сравнение скорости рендеринга и возможности — аргумент
Сравнение производительности — аргумент
В конце концов сравнение цены — аргумент
Эпл — не аргумент!
P.S. И не надо думать что я фанбой нвидии, сам нахожусь в лагере красных с радеоном.
Это говорит только о том, что продукция удовлетворяет стандартным требованиям заказчика, и не более того. Все остальное — результат частных соглашений.
И специально для фанбоев и любителей громких брэндов: В 70-х годах на Бентли и РР ставились моторы и коробки производства GM от линейки Бьюиков. И только потом РР начал делать все свое.
Прагматичный подход во всей красе.
И специально для фанбоев и любителей громких брэндов: В 70-х годах на Бентли и РР ставились моторы и коробки производства GM от линейки Бьюиков. И только потом РР начал делать все свое.
Прагматичный подход во всей красе.
Вообщето профессионалы обычно делают так (для рендер-серверов, монтажек и т.п.):
1) Покупают макпро
2) Вынимают радион и выкидывают
3) Ставят Нвидиа
причём на вопросы к маковцам зачем там изначально стоит радион, они отвечают что-то вроде «мы всё равно знаем что профессионалы поставят туда нвидиа, но мы деньги зарабатываем на том что впариваем никому не нужный радион»
1) Покупают макпро
2) Вынимают радион и выкидывают
3) Ставят Нвидиа
причём на вопросы к маковцам зачем там изначально стоит радион, они отвечают что-то вроде «мы всё равно знаем что профессионалы поставят туда нвидиа, но мы деньги зарабатываем на том что впариваем никому не нужный радион»
Final Cut оптимизирован под Open Cl, поэтому там Radeon.
Кстати, могу сказать со 100%ой уверенностью, что постинг чужих постов с указанием авторства по причине «мало кармы» администрацией очень не приветствуется (Прецеденты были и не единожды). Возможно, покопавшись в правилах, вы найдёте соответствующую статью, но если вдруг вам влепят недельку рид-онли, попросят перечитать правила в принудительном порядке или ещё чего — я предупредил ;)
Вы оказались чертовски правы и меня действительно забанили, причем сразу после вашего поста. Каюсь. Слава богу, респаунулся и сейчас отвечу на все вопросы :)
p.s. мы не специально это сделали — мы думали, что это и есть наиболее корректный путь попасть на Хабр :)
А чем вы измеряли потребление ПК во время рендеринга?
У меня БП Therlamaltake со специальной панелькой, которая якобы указывает полную потребляемую мощность. Злые языки говорят, что панелька — полное фуфло и рекламный трюк, но я нарочно сравнивал ее показатели с показателями двух разных UPS, и они совпадали с точностью до 10-15%. Так что, считаю для грубой оценки ее показания приемлемыми.
Наверное, это незаконно :)
В очень хорошем стиле статья написана, у вас определенно талант увлекательно писать технические статьи!
Над многими обзорами просто умираешь со скуки, но не над вашим.
Над многими обзорами просто умираешь со скуки, но не над вашим.
Я бы не был таким поспешным в вывода на счет CUDA, да есть у нее преимущество, но при нормальной распараллеливании процессов и обработки фото, лично могу сказать разница в 2-6 раз при обработке изображения 5000х6000 пикселей, при этом Х3 разлоченный до Х4 по сути 640… ради интереса реализовать бы в поточности и сравнить результаты с CUDA…
Только не очень понял — вы тут перепрошивали GTS450 под линейку квадро, превращая её программно в карточку этой серии, или напрямую включали GPU ускорение?
Обманули премьеру, заставили работать с тем, что есть, никто из 450ки квадру не сделает.
С помощью утилиты GPUSniffer.exe (заботливо лежащей в корне директории Premiere) определяется название карты и вписывается к специальный текстовый файл. После этого Premiere подхватывает любую карту на современном чипе nVidia и с более чем 896 МБ. памяти. Подробнее по ссылке в начале статьи.
Не совсем очевиден вывод про то, что слабым местом при одновременном воспроизведении двух FullHD видео является видео-карта. В статье ничего не сказано про то, какая система хранения данных использовалась — если это обычный винчестер, то тут даже вопроса никакого стоять не может. Ну и описанная ситуация с «уже через пару-тройку секунд картинка «залипла»» вполне характерна — видеокарта прекрасно справилась с тем, что смогла получить без задержек из кеша жесткого диска в оперативной памяти.
Так на чем у вас данные лежали?
Так на чем у вас данные лежали?
Просто исходя из своего опыта успешного просмотра фильма Аватар в FullHD, одновременно с процессом его перекодирования из файла размером 40Гб в файл размером 4Гб, проводимого на GT240, такой затык в производительности на GTS450 кажется мне невероятным. В моем случае чтение производилось с RAID-10 собранного на 2-х дисках (при использовании RAID-0 в Linux чтение производится только с одного, поэтому был использован RAID-10). И всё равно у меня было ощущение, что затыкается всё на дисковой подсистеме.
Я имел ввиду RAID-1, конечно же, который зеркалирование, а не чередование. И RAID-10 был настроен на зеркалирование, то есть в stripe в нем было по одному диску.
Вся нагрузка была на seek головок туда-сюда на кусочки кадров из двух файлов. Надо либо с SSD винта такие штуки тестировать, либо ложить смешиваемые видеопотоки на разные (и физически, и логически) жёсткие диски.
Давайте уточним, о каких именно двух примерах идёт речь
В посте три примера:
1. Два файла с CUDA (медленно)
2. Один файл с фильтрами с CUDA (быстро)
3. Один файл с фильтрами без CUDA (медленно)
Речь в данной ветке коментов о том, что первое «медленно» является причиной параллельного чтения разных файлов с одного физического жёсткого диска, а не в скорости CUDA. Даже рейды в этом вопросе не спасут, только физическое и логическое разделение входящих потоков по разным механическим дискам. Либо SSD.
1. Два файла с CUDA (медленно)
2. Один файл с фильтрами с CUDA (быстро)
3. Один файл с фильтрами без CUDA (медленно)
Речь в данной ветке коментов о том, что первое «медленно» является причиной параллельного чтения разных файлов с одного физического жёсткого диска, а не в скорости CUDA. Даже рейды в этом вопросе не спасут, только физическое и логическое разделение входящих потоков по разным механическим дискам. Либо SSD.
Мне кажется вы преувеличиваете задержки от seek в данном случае. Всё равно это будет потоковое чтение, с которым у hdd проблем нет.
Вообще да, если прикинуть битрейт, то он не выглядит как слишком большой для жесткого диска. Скорее всего и правда в данном случае нагрузка на видео-карту гораздо больше чем при простом просмотре и кодировании видео, всё-таки композиция двух видео-потоков сложнее на порядок…
Чем кодировали? Давно ищу нормальный кодировщик с поддержкой CUDA, в основном какие-то шароварные поделия.
Отвечаю сразу всем:
— данные в экспериментах лежали на SSD Intel ssdsa2m080g2gc
— поток MPEG2 1080p шире, чем h264 и составлял 35 мегабит, т.е. всего около 4,375 мегабайт в секунду. Это совсем немного даже для классических HDD
— в экспериментах я использовал один и тот же небольшой фрагмент видео, накладывая его на самого себя. Таким образом, программе необходимо было считывать только один небольшой 150 МБ. файл, скорее всего она полностью кэшировала его перед началом расчетов
Таким образом затык был точно не в дисковой подсистеме, что кроме меня еще может подтвердить статья-сравнение SSD-HDD на iXBT
— данные в экспериментах лежали на SSD Intel ssdsa2m080g2gc
— поток MPEG2 1080p шире, чем h264 и составлял 35 мегабит, т.е. всего около 4,375 мегабайт в секунду. Это совсем немного даже для классических HDD
— в экспериментах я использовал один и тот же небольшой фрагмент видео, накладывая его на самого себя. Таким образом, программе необходимо было считывать только один небольшой 150 МБ. файл, скорее всего она полностью кэшировала его перед началом расчетов
Таким образом затык был точно не в дисковой подсистеме, что кроме меня еще может подтвердить статья-сравнение SSD-HDD на iXBT
Я так и не понял, было у вас две видеокарты в SLI или одна.
2 в слай.
Две одинаковые видеокарты в независимом режиме. SLI-панельки у меня нет, и я не знаю, если соединить карты SLI-панелькой, можно будет выводить изображение сразу на 3 монитора? Пусть и с софтверным включением/выключением SLI-режима.
Можно. На работе тестировали работает.
Более того, слай можно вроде активировать по PCI-E шине, потеряв процентов 10 производительности.
Люди, кто реально монтировал с CUDA, есть ли разница в качестве, а то ходят слухи что GPU vs CPU сжатие\разжатие видео, качество не фонтан?
Есть подозрение, что разницы быть не должно. Т.к. GPU, понимаю, только в качестве сопроцессора.
На хабре была статья про OpenCL, в которой (или через которую) я узнал, что в OpenCL реализованы функции (тригонометрия и подобные), которые выдают приближенные значения, но работают намного быстрее. Была приписка наподобие «они более производительные, но неточные, и не могут быть использованы в научных вычислениях». Подозреваю, что при использовании нативных OpenCL-библиотечных функций для неких трансформаций при рендеринге могут появиться артефакты.
Поправьте меня, если я в чем не прав.
Поправьте меня, если я в чем не прав.
В том, что речь про CUDA? А можете дать ссылку на статью, а то мне кажется несколько странным такое поведение? Тем более, его скорее всего надо включать принудительно, а не по умолчанию.
Есть такая фишка и в OpenCL и в CUDA, но дело не в этом. Распространённые на сегодняшний день подходы к сжатию видео, во многом последовательны и содержат в себе много логики которая либо не распараллеливается в принципе, либо распараллеливается но с большими допущениями. Аппаратные видеокодеки это по сути специализированные векторно-скалярные процессоры, так-что в них и волки целы и овцы сыты :-) Но с GPU так не получается. Вот jpeg2000 и ему подобные, на GPU пошли бы хорошо в силу своей параллельной природы, но с jpeg2000 мы сталкиваемся только когда кодируем\смотрим DCP для кинотеатра, в большинстве же случаев мы используем кодеки с сложной последовательной природой, которая в полной мере шейдерам не по зубам.
Вот посмотрите картиночки в прочем они не так выразительны…
Сам я задумался о применимости CUDA когда попытались её припакхать к сборке\разборке BlueRay3D дисков. Она занимала много времени и CUDA тут конечно же ощутимо помогла, но сравнивая результаты кодирования CPU и GPU было очевидно что кимоно-то херовато! Причём в динамике это заметно больше чем на стоп кадрах, а до того момента я искренне полагал, что моушн эстимейт и статистический анализ энтропии кадров, выполняются CPU а на GPU только дискретно косинусное преобразование, но походу я ошибался…
Но опять же восприятие штука субъективная, вот я и спрашиваю, как оно в реальной работе, чисто субъективно, не страдает ли качество?
Вот посмотрите картиночки в прочем они не так выразительны…
Сам я задумался о применимости CUDA когда попытались её припакхать к сборке\разборке BlueRay3D дисков. Она занимала много времени и CUDA тут конечно же ощутимо помогла, но сравнивая результаты кодирования CPU и GPU было очевидно что кимоно-то херовато! Причём в динамике это заметно больше чем на стоп кадрах, а до того момента я искренне полагал, что моушн эстимейт и статистический анализ энтропии кадров, выполняются CPU а на GPU только дискретно косинусное преобразование, но походу я ошибался…
Но опять же восприятие штука субъективная, вот я и спрашиваю, как оно в реальной работе, чисто субъективно, не страдает ли качество?
Друзья, если вас не затруднит, сообщите мне в личку, интересно ли вам будет продолжение экспериментов на более новой материнской плате и карте Quadro 4000, которая, словно сыр с хабра неба, упала мне в почту сегодня утром :)
Да, друзья, хочу добавить, что этот пост был написан специально в поддержку статьи Сколько стоит кино?. Все скриншоты поста — из фильма :)
А патчей нет для работы с i7 Sandy Bridge? а то смотрел обзор на anandtech.com так там видео с quicksync-ом и по скорости лучше и по качеству в сравнении с GTX460
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
CUDA в Adobe Premiere CS5: оправдано ли использование бюджетной видеокарты?