CUDA в Adobe Premiere CS5: оправдано ли использование бюджетной видеокарты?

    Adobe Premiere CS5 и CS5.5 позволяет использовать технологию nVidia CUDA для аппаратного ускорения просчета видеоэффектов. Однако официальный список совместимых видеокарт, обеспечивающих поддержку данной функциональности, довольно короток и ограничивается моделями верхнего ценового диапазона.

    Наряду с этим, широко известен хак, позволяющий включить поддержку аппаратного ускорения на гораздо более дешевых решениях. Впрочем, «хаком» назвать этот финт можно с большой натяжкой — «взлом» Premiere сводится к вписыванию названия вашей видеокарты в текстовый файл, лежащий в корне программы. «Дырка» сделана настолько дружелюбной для пользователя, что вызывает непроизвольный вопрос, не специально ли она оставлена?

    Под катом мои впечатления от работы в Adobe Premiere CS5 с видеокартой среднего ценового диапазона и некоторые эмпирические выводы.


    Собираясь сделать апгрейд видеосистемы монтажного компьютера, я стремился решить несколько задач сразу. Во-первых, обеспечить одновременную поддержу трех мониторов и проектора; во-вторых, сохранить шумность компьютера на прежнем (очень низком) уровне; в-третьих — уложиться в более-менее разумный бюджет (до 8000 руб). Так или иначе, мой выбор остановился на двух двухвентиляторных картах nVidia GeForce GTS450 1024Mb производства Gigabyte, удовлетворяющих поставленным задачам. Карты я поставил в компьютер под управлением Windows 7 со следующими существенными железками:
    • Gigabyte GA-P35-DS3p
    • 8 GB RAM DDR2
    • Core 2 Quad Q9300


    «Взлом» Premiere прошел без каких-либо проблем и, убедившись в том, что аппаратное ускорение заработало, я сразу же постарался понять, что же оно привнесет в процесс монтажа (я брал видеокарты с манибеком, рассчитывая, если они не понравятся, обменять на более мощные). Кстати, а как убедиться в том, что аппаратное ускорение включено? Во-первых, в настройках проекта Premiere в пункте Video Rendering and Playback должен появится пункт Mercury Playback Engine GPU Acceleration:
    image

    Во-вторых, нажав Ctrl+F12 можно попасть в консоль Premiere, и, изменив значение параметра EnableDogEars на «true», увидеть статистику рендеринга прямо на изображении. Вот так:
    image

    Для тестов я взял файлы 1920x1080 с автомобильного видеорегистратора (h264) и с видеокамеры Sony EX3 (MPEG2). Для начала я провел простейший эксперимент: наложил один слой видео на другой, обрезав (crop) половину верхнего кадра. В исследовании производительности на ixbt.com приводился похожий пример с шестью видеодорожками, расположенными друг над другом с различными эффектами. Все они успешно воспроизводились на профессиональной Quadro FX 4800, и первые четыре — на игровой GeForce GTX 285.

    Увы! При попытке воспроизведения в моем случае уже через пару-тройку секунд картинка «залипла». Таким образом, карта не справилась даже с двумя слоями Full HD h264 видео. Обращу внимание на желтую полосу над фрагментом на Timeline — она свидетельствует о том, что, по мнению Premiere, это фрагмент должен бы проиграться в реальном времени без каких-либо проблем. С 1920x1080 MPEG2 видео ситуация оказалась немного лучше — залипание проявилось только при трех слоях.
    image

    В следующем эксперименте я отказался от наложения видео слоями, и попробовал наложить несколько аппаратных эффектов на один слой изображения:
    image

    И еще больше эффектов:
    image

    Для MPEG2 на одном слое мне так и не удалось получить пропущенных кадров, даже добавив 10 «тяжелых» фильтров. Лишь при наложении друг на друга двух слоев с 22 фильтрами в сумме, производительность рендеринга превью, наконец, упала до 15 FPS.
    image

    Замечу, что при отключении аппаратного ускорения, даже один фильтр «Кривые» не позволяет получить воспроизведение в реальном времени на Core 2 Quad Q9300. Вывод: аппаратных ресурсов хватает для обработки одного слоя любого Full HD видео в реальном времени, и двух слоев MPEG2 1080p с разумным количеством фильтров.

    В следующих экспериментах я накладывал на Full HD-слои видео стандартного разрешения (DV AVI), а также работал со слоями в «стандартном» разрешении (720х576). Не утомляя подробностями: с этими задачами карта блестяще справляется при любом разумном количестве слоев.

    Что же со всем этим делать?


    Итак, промежуточный итог таков: видеокарта не справляется с послойной обработкой Full HD h264, однако вполне подходит для работы с эффектами на одном слое такого видео, и двух слоях MPEG2. Однако исчерпываются ли на этом преимущества аппаратного ускорения? Для эксперимента я отключил аппаратное ускорение:
    image

    Как видите, полоска над фрагментом стала красной — Premiere уже не ожидает, что фрагмент будет отображен в реальном времени. Скорость рендеринга составляет менее 1 FPS. Чтобы добиться плавного воспроизведения, его придется «отрендерить». В «софтверном» режиме этот процесс на Core 2 Quad Q9300 занимает примерно 26 минут, при этом среднее пиковое потребление питания системного блока компьютера возрастает до 150 ватт:
    image

    Теперь включим обратно аппаратное ускорение. Полоска снова стала желтой — Premiere «думает», что сможет воспроизвести фрагмент плавно. Но мы-то знаем, что на самом деле мощности видеокарты сейчас не хватит. Чтобы форсированно отрендерить фрагмент, вместо привычного Enter необходимо вызвать «Sequence-> Render entire work area» (в «Edit -> Keyboard Customization» этой функции можно назначить горячую клавишу, например, тот же Enter).
    image

    Что мы видим? 2 минуты против 26 в софтверном режиме! Как видно, аппаратное ускорение даже если и не может обеспечить realtime воспроизведение, но зато в 10 раз ускоряет рендеринг сложных сцен! Потребление системного блока при этом в пике закономерно достигало 200 ватт.

    Выводы:


    • если вы используете Premiere для многослойного компоузинга Full HD, видеокарта среднего ценового диапазона вам НЕ подойдет;
    • если вы используете Premiere преимущественно для классического монтажа «в стык», такая карта вполне приемлема: в редкие моменты, когда вы будете использовать 2 слоя видео, даже если она не справится с RealTime, но наверняка даст многократное ускорение рендеринга
    • карта также облегчит практически любой монтаж и компоузинг видео стандартного разрешения.


    Эмпирика


    Это мое частное мнение, не претендующее на истинность.

    Положа руку на сердце, бОльшую часть видеомонтажных задач даже «средняя» карта ускоряет весьма успешно. Почему же Adobe ограничила официальную поддержку только самыми-самыми картами? Потому, что в частной задаче послойного наложения Full HD видео карта мгновенно пасует, а механизм детектирования таких ситуаций не разработан. В режиме аппаратного ускорения полоска над тайм-линией всегда остается желтой, сколько бы слоев вы не наложили, вне зависимости от фактической скорости воспроизведения! А должна, по идее, становиться красной, если мощности видеокарты не хватает, после чего этот фрагмент можно было бы «отсчитать» привычным всем образом (нажатием Enter).

    Таким образом, если бы Adobe расширила официальных список видеокарт «вниз», многие пользователи, не знакомые с этой особенностью программы, столкнулись бы с проблемами при наслоении видео. С другой стороны, «открытые ворота», т.е. предельно упрощенный способ включения новых видеокарт в список совместимых, позволил охватить нишу энтузиастов, для которых мелкие неудобства могут быть менее значимы, чем стоимость оборудования (и не только стоимость: кроме, собственно, цены меня еще очень беспокоит шумность решения)

    Оффтоп:


    Совсем кратко, пару любопытных наблюдений за работой видеокарт (сделанных по мониторингу температур и загрузки карт во время монтажа с помощью nVidia Inspector). Оказывается, совершенно не важно, на мониторе какой видеокарты в данный момент находится окно Preview: расчет эффектов будет происходить на той видеокарте, которая в ОС выбрана основной. При этом простой запуск Premiere с аппаратным ускорением приводит к существенной загрузке обеих видеокарт: даже если ничего не монтировать, температура обоих GPU при работающем Premiere возрастает на 10-15 градусов.

    P.S.


    Есть мнение, что Premiere зачастую непоследовательно ведет себя на разнообразных платформах. То есть при казалось бы одинаковых формальных параметрах железа, производительность на различных моделях может здорово отличаться. Поэтому я намереваюсь повторить проведенные эксперименты на более современной материнской плате и посмотреть, изменится ли что-либо. Если тема интересна Хабраосообществу, с удовольствием поделюсь результатами.
    AdBlock похитил этот баннер, но баннеры не зубы — отрастут

    Подробнее
    Реклама

    Комментарии 87

      +2
      Когда брал год назад свою GTX460, даже не задумывался о монтаже. Когда же увидел на практике, как это чудо работает — понял, что следующая видуха у меня будет тоже NVIDIA, хотя до этого стабильно сидел на радеонах. CUDA — это очень крутая штука!

      Добавлю свои впечатления:
      Часто приходится монтировать ролики качества mp4@1080p длительностью 7 минут — многослойный монтаж (от 3 до 10 слоев одновременно с переходами, в основном без фильтров). Рендеринг без меркури длится примерно 5-6 часов (на слабеньком Athon II X3 3,2ГГц) — при этом во время рендеринга компом невозможно пользоваться. Рендеринг того же видео на GTX460 — 1-1.5 часа. При этом параллельно можно преспокойно смотреть сериалы или серфить. Профит, как говорится, на лицо.
        +1
        Всё же CUDA — хороша, не спорю, однако не стоит забывать, что «чистая» производительность у AMD Radeon тех же поколений — выше (хороший пример — майнинг биткоинов). Так что если заставить работать на AMD Radeon — будет ещё веселей.
          +2
          Вся производительность сводится к практическому применению. Если бы Adobe Premiere научился так же использовать радики, с удовольствием вернулся бы назад в стан красных.

          А фарм биткоинов для меня лично — очень спорное применение вычислительных мощностей ПК.
            0
            Ну фарм биткоинов это как показатель производительности :) Сам печалюсь, что не хотят использовать красно-белых, но пока сижу на 6970.
            0
            К сожалению, это спорный момент. Не всегда AMD выигрывает у CUDA и наоборот.
            Вопрос в том, почему Adobe не сделала OpenCL реализацию?? Думаю, что там не все так просто.
              0
              Могу лишь предположить, что к началу старта разработки этого дела в адоби, опенцл еще был слишком молодым и сырым.
                0
                Ответ на ваш вопрос простой: $.
                  0
                  Как раз если бы вопрос был в $$$, то правильнее всего было бы делать на OpenCL — рынок больше, т.к. сейчас это NVIDIA, а так это NVIDIA и ATI.
                    0
                    А сколько, как вы думаете, отмаслала нвидия за использование CUDA, и что распространённей, квадры или фаерГЛ?
                      +1
                      NVIDIA ничего против Open CL не имеет и так же участвует в его развитии. Просто CUDA правда был до появления Open CL. В идеале обе конторы собираются в последствии утвердить единый Open CL стандарт для GPU.
                        –1
                        Сколько, поделитесь с нами?
                        С такой активностью, как у ATI/AMD ничего удивительного, что FireGL так сильно «распространён».
                    0
                    Все горазло проще. nVidia финансировала реализацию CUDA в продуктах Adobe, и скорее всего на эксклюзивных началах.
                    +1
                    радеоны быстрее считают операции с целыми числами, поэтому лучше подходят именно для майнинга (сдвиги, ксоры и.т.п).
                    А у нвидии лучше реализована работа с числами с плавающей точкой, поэтому говорить тут о «чистой производительности» как минимум некорректно
                    0
                    Не пробовали разблокировать четвертое ядро?
                    Если материнка это не поддерживает, обновите биос, глядишь появиться такая фишка.
                      0
                      пробовал, к сожалению мне с камушком не повезло — 4-е ядро открывается, но работает нестабильно и с ошибками, да и греется гораздо сильнее.
                    0
                    Боюсь что ваши изображения легли вместе с сервером на котором хранились. (
                      0
                      Есть такой момент — теперь я знаю, что такое Хабраэффект.

                      В следующий раз я положу картинки на более устойчивый хостинг. В следующий раз я положу картинки на более устойчивый хостинг.
                        0
                        Фотки срочно перезалить на habreffect или img.leprosorium.com
                          +1
                          habreffect.ru уже почил с миром весьма давно…
                          0
                          Сделано! Спасибо за помощь.
                            –3
                            фак, я залип на этом img
                          +1
                          8 килорублей? Может, стоит лучше докинуть 30-40 баксов и взять 560ti вместо двух задохликов? А со временем возьмёте вторую.
                            0
                            Зачем докидывать? Она 7-8 как раз и стоит. Хотя от региона к региону цена разниться, конечно.
                            А карта и в самом деле стоящая своих денег.
                              +1
                              Так, то оно так, но у чувака ТРИ монитора и проектор.
                                0
                                Именно так, причем мониторы разного возраста и класса, поэтому брать карту с кучей DisplayPort было не подходящим решением. Оставалось только взять две обычные карты.
                          • НЛО прилетело и опубликовало эту надпись здесь
                                +15
                                да какого хрена извините меня вы считаете контракт между производителями — аргументом? Они деньги зарабатывают и им срать на вас, если завтра эпл, какой-нибудь завод «иннокентий» предложит аналогичную мощность и качество по меньшей цене то в маки начнут ставить «инокентиев»

                                Сравнение скорости майнинга видеокарт — аргумент
                                Сравнение скорости рендеринга и возможности — аргумент
                                Сравнение производительности — аргумент
                                В конце концов сравнение цены — аргумент
                                Эпл — не аргумент!

                                P.S. И не надо думать что я фанбой нвидии, сам нахожусь в лагере красных с радеоном.
                                • НЛО прилетело и опубликовало эту надпись здесь
                                    +4
                                    Это говорит только о том, что продукция удовлетворяет стандартным требованиям заказчика, и не более того. Все остальное — результат частных соглашений.
                                    И специально для фанбоев и любителей громких брэндов: В 70-х годах на Бентли и РР ставились моторы и коробки производства GM от линейки Бьюиков. И только потом РР начал делать все свое.
                                    Прагматичный подход во всей красе.
                                      +1
                                      Потом РР начали агрегатироваться моторами БМВ. А Бентли — VW.
                                      +4
                                      У меня тут за спиной материнка фоксконовская с дутыми конденсаторами лежит…
                                  • НЛО прилетело и опубликовало эту надпись здесь
                                      +4
                                      Вообщето профессионалы обычно делают так (для рендер-серверов, монтажек и т.п.):
                                      1) Покупают макпро
                                      2) Вынимают радион и выкидывают
                                      3) Ставят Нвидиа

                                      причём на вопросы к маковцам зачем там изначально стоит радион, они отвечают что-то вроде «мы всё равно знаем что профессионалы поставят туда нвидиа, но мы деньги зарабатываем на том что впариваем никому не нужный радион»
                                      • НЛО прилетело и опубликовало эту надпись здесь
                                        0
                                        Final Cut оптимизирован под Open Cl, поэтому там Radeon.
                                          0
                                          OpenCL поддерживается и NVidia тоже.
                                        0
                                        Кстати, могу сказать со 100%ой уверенностью, что постинг чужих постов с указанием авторства по причине «мало кармы» администрацией очень не приветствуется (Прецеденты были и не единожды). Возможно, покопавшись в правилах, вы найдёте соответствующую статью, но если вдруг вам влепят недельку рид-онли, попросят перечитать правила в принудительном порядке или ещё чего — я предупредил ;)
                                          0
                                          Вы оказались чертовски правы и меня действительно забанили, причем сразу после вашего поста. Каюсь. Слава богу, респаунулся и сейчас отвечу на все вопросы :)
                                            0
                                            p.s. мы не специально это сделали — мы думали, что это и есть наиболее корректный путь попасть на Хабр :)
                                              0
                                              Я просто очень тесно сталкивался с этой ситуацией ;)
                                            +1
                                            А чем вы измеряли потребление ПК во время рендеринга?
                                              0
                                              У меня БП Therlamaltake со специальной панелькой, которая якобы указывает полную потребляемую мощность. Злые языки говорят, что панелька — полное фуфло и рекламный трюк, но я нарочно сравнивал ее показатели с показателями двух разных UPS, и они совпадали с точностью до 10-15%. Так что, считаю для грубой оценки ее показания приемлемыми.
                                              0
                                              Наверное, это незаконно :)
                                                0
                                                В очень хорошем стиле статья написана, у вас определенно талант увлекательно писать технические статьи!
                                                Над многими обзорами просто умираешь со скуки, но не над вашим.
                                                  0
                                                  Большое спасибо! Я старался, и в будущем надеюсь оправдать ваш отзыв.
                                                  –3
                                                  Я бы не был таким поспешным в вывода на счет CUDA, да есть у нее преимущество, но при нормальной распараллеливании процессов и обработки фото, лично могу сказать разница в 2-6 раз при обработке изображения 5000х6000 пикселей, при этом Х3 разлоченный до Х4 по сути 640… ради интереса реализовать бы в поточности и сравнить результаты с CUDA…
                                                    +5
                                                    Не совсем понятно, что вы имеете в виду?
                                                    • НЛО прилетело и опубликовало эту надпись здесь
                                                      0
                                                      Только не очень понял — вы тут перепрошивали GTS450 под линейку квадро, превращая её программно в карточку этой серии, или напрямую включали GPU ускорение?
                                                        +1
                                                        Обманули премьеру, заставили работать с тем, что есть, никто из 450ки квадру не сделает.
                                                          0
                                                          С помощью утилиты GPUSniffer.exe (заботливо лежащей в корне директории Premiere) определяется название карты и вписывается к специальный текстовый файл. После этого Premiere подхватывает любую карту на современном чипе nVidia и с более чем 896 МБ. памяти. Подробнее по ссылке в начале статьи.
                                                          +2
                                                          Не совсем очевиден вывод про то, что слабым местом при одновременном воспроизведении двух FullHD видео является видео-карта. В статье ничего не сказано про то, какая система хранения данных использовалась — если это обычный винчестер, то тут даже вопроса никакого стоять не может. Ну и описанная ситуация с «уже через пару-тройку секунд картинка «залипла»» вполне характерна — видеокарта прекрасно справилась с тем, что смогла получить без задержек из кеша жесткого диска в оперативной памяти.

                                                          Так на чем у вас данные лежали?
                                                            0
                                                            Просто исходя из своего опыта успешного просмотра фильма Аватар в FullHD, одновременно с процессом его перекодирования из файла размером 40Гб в файл размером 4Гб, проводимого на GT240, такой затык в производительности на GTS450 кажется мне невероятным. В моем случае чтение производилось с RAID-10 собранного на 2-х дисках (при использовании RAID-0 в Linux чтение производится только с одного, поэтому был использован RAID-10). И всё равно у меня было ощущение, что затыкается всё на дисковой подсистеме.
                                                              0
                                                              Я имел ввиду RAID-1, конечно же, который зеркалирование, а не чередование. И RAID-10 был настроен на зеркалирование, то есть в stripe в нем было по одному диску.
                                                              • НЛО прилетело и опубликовало эту надпись здесь
                                                                  0
                                                                  Вся нагрузка была на seek головок туда-сюда на кусочки кадров из двух файлов. Надо либо с SSD винта такие штуки тестировать, либо ложить смешиваемые видеопотоки на разные (и физически, и логически) жёсткие диски.
                                                                    0
                                                                    Да какая разница куда ложить, если приведено два примера в одинаковых условиях с одним отличием и в одном случае работает, в втором нет?
                                                                      +1
                                                                      Давайте уточним, о каких именно двух примерах идёт речь
                                                                        0
                                                                        Это очевидно — из этого поста. С включенным CUDA и не включенным.
                                                                          0
                                                                          В посте три примера:
                                                                          1. Два файла с CUDA (медленно)
                                                                          2. Один файл с фильтрами с CUDA (быстро)
                                                                          3. Один файл с фильтрами без CUDA (медленно)

                                                                          Речь в данной ветке коментов о том, что первое «медленно» является причиной параллельного чтения разных файлов с одного физического жёсткого диска, а не в скорости CUDA. Даже рейды в этом вопросе не спасут, только физическое и логическое разделение входящих потоков по разным механическим дискам. Либо SSD.
                                                                            0
                                                                            Да, виноват, был не прав. Перечитал еще раз.

                                                                            Но там указанно, что два слоя h264 и три mpeg2. h264 более «плотный», тоесть если затык при чтении, то его скорее надо ждать от mpeg2 — там на теже кадры надо считать больше, а обсчитать меньше?
                                                                              0
                                                                              затык не при самом чтении, а при подготовке к чтению (пока головка бежит к нужной дорожке). поэтому от размера кадра в байтах практически ничего не зависит.
                                                                      0
                                                                      Мне кажется вы преувеличиваете задержки от seek в данном случае. Всё равно это будет потоковое чтение, с которым у hdd проблем нет.
                                                                        0
                                                                        Потоковое чтение — это когда нет seek. Когда есть seek после каждых 100 килобайт на переключение между файлами, вам и 2 мегабайта в секунду на современных механических винтах не получить.
                                                                      0
                                                                      Вообще да, если прикинуть битрейт, то он не выглядит как слишком большой для жесткого диска. Скорее всего и правда в данном случае нагрузка на видео-карту гораздо больше чем при простом просмотре и кодировании видео, всё-таки композиция двух видео-потоков сложнее на порядок…
                                                                    • НЛО прилетело и опубликовало эту надпись здесь
                                                                        0
                                                                        Чем кодировали? Давно ищу нормальный кодировщик с поддержкой CUDA, в основном какие-то шароварные поделия.
                                                                          0
                                                                          mencoder с vdpau-кодеком, это не совсем cuda… ну и насколько я понимаю он только под linux такой есть… под windows не знаю…
                                                                        +2
                                                                        Отвечаю сразу всем:
                                                                        — данные в экспериментах лежали на SSD Intel ssdsa2m080g2gc
                                                                        — поток MPEG2 1080p шире, чем h264 и составлял 35 мегабит, т.е. всего около 4,375 мегабайт в секунду. Это совсем немного даже для классических HDD
                                                                        — в экспериментах я использовал один и тот же небольшой фрагмент видео, накладывая его на самого себя. Таким образом, программе необходимо было считывать только один небольшой 150 МБ. файл, скорее всего она полностью кэшировала его перед началом расчетов

                                                                        Таким образом затык был точно не в дисковой подсистеме, что кроме меня еще может подтвердить статья-сравнение SSD-HDD на iXBT
                                                                          0
                                                                          Спасибо, вопрос о затыке в жестком диске отпадает :-).
                                                                        0
                                                                        Я так и не понял, было у вас две видеокарты в SLI или одна.
                                                                          0
                                                                          2 в слай.
                                                                            0
                                                                            Две одинаковые видеокарты в независимом режиме. SLI-панельки у меня нет, и я не знаю, если соединить карты SLI-панелькой, можно будет выводить изображение сразу на 3 монитора? Пусть и с софтверным включением/выключением SLI-режима.
                                                                              0
                                                                              Можно. На работе тестировали работает.
                                                                                0
                                                                                Кстати пока не забыл. Иногда в nvidia control panel надо выставлять профайл SLI руками, так как автоматически выбираются только игры и некторые DX приложения.

                                                                                Для OpenGL workstation приложений (например Maya) надо 100% выбирать профайл вручную.

                                                                                0
                                                                                Более того, слай можно вроде активировать по PCI-E шине, потеряв процентов 10 производительности.
                                                                              0
                                                                              Люди, кто реально монтировал с CUDA, есть ли разница в качестве, а то ходят слухи что GPU vs CPU сжатие\разжатие видео, качество не фонтан?
                                                                                +1
                                                                                Есть подозрение, что разницы быть не должно. Т.к. GPU, понимаю, только в качестве сопроцессора.
                                                                                  +1
                                                                                  На хабре была статья про OpenCL, в которой (или через которую) я узнал, что в OpenCL реализованы функции (тригонометрия и подобные), которые выдают приближенные значения, но работают намного быстрее. Была приписка наподобие «они более производительные, но неточные, и не могут быть использованы в научных вычислениях». Подозреваю, что при использовании нативных OpenCL-библиотечных функций для неких трансформаций при рендеринге могут появиться артефакты.
                                                                                  Поправьте меня, если я в чем не прав.
                                                                                    0
                                                                                    В том, что речь про CUDA? А можете дать ссылку на статью, а то мне кажется несколько странным такое поведение? Тем более, его скорее всего надо включать принудительно, а не по умолчанию.
                                                                                      0
                                                                                      Есть такая фишка и в OpenCL и в CUDA, но дело не в этом. Распространённые на сегодняшний день подходы к сжатию видео, во многом последовательны и содержат в себе много логики которая либо не распараллеливается в принципе, либо распараллеливается но с большими допущениями. Аппаратные видеокодеки это по сути специализированные векторно-скалярные процессоры, так-что в них и волки целы и овцы сыты :-) Но с GPU так не получается. Вот jpeg2000 и ему подобные, на GPU пошли бы хорошо в силу своей параллельной природы, но с jpeg2000 мы сталкиваемся только когда кодируем\смотрим DCP для кинотеатра, в большинстве же случаев мы используем кодеки с сложной последовательной природой, которая в полной мере шейдерам не по зубам.

                                                                                      Вот посмотрите картиночки в прочем они не так выразительны…
                                                                                      Сам я задумался о применимости CUDA когда попытались её припакхать к сборке\разборке BlueRay3D дисков. Она занимала много времени и CUDA тут конечно же ощутимо помогла, но сравнивая результаты кодирования CPU и GPU было очевидно что кимоно-то херовато! Причём в динамике это заметно больше чем на стоп кадрах, а до того момента я искренне полагал, что моушн эстимейт и статистический анализ энтропии кадров, выполняются CPU а на GPU только дискретно косинусное преобразование, но походу я ошибался…

                                                                                      Но опять же восприятие штука субъективная, вот я и спрашиваю, как оно в реальной работе, чисто субъективно, не страдает ли качество?
                                                                                0
                                                                                Друзья, если вас не затруднит, сообщите мне в личку, интересно ли вам будет продолжение экспериментов на более новой материнской плате и карте Quadro 4000, которая, словно сыр с хабра неба, упала мне в почту сегодня утром :)
                                                                                • НЛО прилетело и опубликовало эту надпись здесь
                                                                                    0
                                                                                    Да, друзья, хочу добавить, что этот пост был написан специально в поддержку статьи Сколько стоит кино?. Все скриншоты поста — из фильма :)
                                                                                      0
                                                                                      А патчей нет для работы с i7 Sandy Bridge? а то смотрел обзор на anandtech.com так там видео с quicksync-ом и по скорости лучше и по качеству в сравнении с GTX460

                                                                                      Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                                                                      Самое читаемое