NVIDIA GTX 970 — практика ущербности, часть 2

    Всем привет! Это третья, заключительная часть материала о производительности видеокарты NVIDIA GTX 970. В первой части мы говорили о поколениях видеочипов, внутреннем устройстве GTX 970 и причинах шума на тему трёх с половиной гигов, во второй — изучали, насколько это виляет на производительность и что намерили всякие железячные издания, а сегодня займёмся непосредственно испытаниями и посмотрим, в чём GTX 970 хороша, а в чём — не очень.



    Тестовое оборудование


    Для тестов я использовал свой личный ПК: Core i7-3930K (6 ядер @ 4.2 ГГц), 16 гигабайт достаточно редкой памяти Kingston HyperX Beast 2400 МГц в четырёхканальном режиме (быстрее на DDR3 сложно что-либо найти), все игрушки и бенчмарки стояли на PCI-Express SSD диске, чтобы минимизировать влияние остальных компонентов на результаты тестов). Всё это дело подключено к монитору с разрешением 2560х1440 точек. Как видите, упираться особо не во что: игрушек с 64 битной архитектурой и бинарниками — кот наплакал, а остальным, по идее, должно всего хватать. Разумеется, все обновления, патчи, драйвера, хотфиксы и всё такое стояло самое свежее, прямо с грядки.



    В качестве подопытного я использовал ASUS STRIX GTX 970: видеокарту с потрясающе тихой системой охлаждения и отличным железом.

    На чём тестируем?


    Во что там у нас нынче молодёжь играет? А то я слышал, что Battle City из моды немного вышел… В общем, для теста выбраны следующие игры:
    • Batman: Arkham origins
    • Battlefield 4
    • Bioshock Infinite
    • Company of Heroes 2
    • Crysis 3
    • Diablo 3
    • Far Cry 3
    • Far Cry 4
    • Metro: Last Light
    • Tomb Raider (2013)

    Во всех случаях будут применяться максимально возможные настройки графики с отключённой вертикальной синхронизацией и активным сглаживанием х4. Всякие Frame Limiter’ы и прочие «сглаживатели» были выключены, после каждого теста видеокарта остывала до нормальных температур а система перезагружалась.

    Специальный гость — игра, которые не отличаются фантастической графикой или оптимизацией, но может задать жару многим GPU при определённых условиях. Нам она нужна чтобы показать некоторые узкие места архитектуры Maxwell. Использовать будем Dark Souls 2 и выполнять downscale с разрешения 3840x1260 до 2560x1440 и с 5220х2880 до 2560x1440.

    К сожалению, GTA V на момент проведения тестов и написания статьи ещё не скачалась вышла, а после уже не было времени на восстановление тестового окружения, так что простите, в этот раз без неё.

    Результаты тестирования


    Для разрешения 2560х1440 достичь достаточно производительности достаточно сложно. Не так давно (в топике про GTA V) я нашёл человека, для котого «ниже 60 FPS — безумные лаги). Что ж, у каждого вкусы свои, но я считаю, что 30 FPS на таком разрешении с одной видеокартой — вполне играбельный вариант, особенно если в напряжённых сценах количество кадров в секунду не проседает ниже 25. Вот результаты:



    Как видите, почти все игры на супер-настройках и с четырёхкратным сглаживанием показывают приемлемые результаты, за исключением откровенно прожорливых монстров с так себе оптимизацией: Metro Last Light и Company of Heroes 2 ожидаемо стали аутсайдерами чартов.

    Что касается потребления памяти, то «выйти» за трёх с половиной гигабайтовый рубеж удалось только в Battlefield 4 и Far Cry 4, (видимо, магия цифры 4, не иначе). Crysis и Metro даже близко не подошли: самые сложные сцены с трудом занимали 3.2 ГБ видеопамяти.

    Maxwell бонусы


    Помните самый первый пост про GTX 970? Там мы рассматривали все пост-DX9 видеокарты NVIDIA и отметили, что вот уже три поколения как компания бьётся над энергоэффективностью своих чипов. С одной стороны — дело благородное, с другой — на десктопах особо потреблением можно не запариваться: чай, не от батарейки работаем. С другой — если уменьшить энергопотребление и тепловыделение, то в рамках того же теплопакета можно будет выжать больше производительности. И именно в этом Maxwell превзошёл как прошлые поколения, так и красно-белых конкурентов.

    Дело в том, что энергоэффективные чипы GM-204 имеют теплопакет 165 Ватт. А ещё имеют технологию автоматического разгона: пока температура позволяет, а нагрузка — соответствует, частота ядра повышается в определённых разумных пределах. Соответственно, чем надёжнее цепи питания, лучше охлаждение, выше базовая частота чипа и памяти — тем больших результатов может достичь видеокарта на архитектуре Maxwell под нагрузкой: тем самым уменьшая просадки в FPS и увеличивая средний frame rate. Эдакий аналог Intel’овского Turbo Boost.

    Штатные частоты моей видеокарты составляли:
    Ядро, Normal — 1114 МГц
    Ядро, Boost — 1253 МГц
    Память: 7010 (1752.5 х4) МГц

    После некоторого шаманства с софтовым поднятием напряжения, проверкой на стабильность и прочих ухищрений удалось получить следующие результаты:

    Ядро, Normal: 1333 МГц
    Ядро, Boost: 1490 МГц
    Память: 8000 (2000 х4) МГц

    Как это сказалось на производительности? Самым лучшим образом:



    Почти везде графики перевалили за рубеж «комфортных» 25 FPS. Забавно, но разгон совершенно не сказался на производительности Diablo 3: видимо, либо какой-то внутренний лимитер всё же действует, либо игра упирается во что-то другое. А кривую Company of Heroes 2 даже разгон не спас, как были унылые результаты, так и остались.

    Вот сравнение минимальной частоты кадров:



    Здесь прирост наиболее важен и заметен: в самый напряжённых сценах исчезли микрофризы и подлагивания, в целом картинка стала плавнее.

    Средняя частота кадров тоже подросла, но не так сильно, и в целом прирост производительности, скорее, характерен для очень нагруженных сцен, чем для общей динамики:



    А теперь самое главное. Что с разгоном, что без — видеокарта удивительно тихая. Нет, конечно, через час-другой игры в Crysis 3 с такими настройками будет некоторый фоновый шум, но ни в какое сравнение не идёт с шумом и нагревом монстров прошлого поколения типа AMD HD7970, GTX 780 и уж тем более воем референсных турбин. В этом плане ASUS молодцы и сделали отличную систему, которая не шумит и выполняет свою работу на пять с плюсом.

    Личное мнение


    В прошлом посте отдельно жаловались на Far Cry 4, мол, если игра всё же выползает за 3.5 ГБ, то начинаются всякие микрофризы, лаги, выпадения кадров, а на записи и вообще кошмар творится (вторая половина ролика):



    В игре такой красоты с выпавшими кадрами и размазанными цветными пятнами вы не увидите, просто будет незначительная потеря плавности картинки. В том же Crysis 3, если его удаётся вывести за пределы потребления 3.5 ГБ видеопамяти вообще таких проблем не наблюдается и просадка производительности практически не видна, особенно если смотреть в прицел и наслаждаться геймплеем, а не пялиться в FPS-метр, ловить кратковременное падение производительности, делать скриншот и бежать на форум, жаловаться на то, какая NVIDIA плохая. :)

    Для разрешения 2560х1440 и 2560х1600 видеокарты хватает во всех играх: если, конечно, вас устраивает средний показатель в 30-40 FPS. Само собой, для 4K2K видеокарты не хватает, и дело здесь не в памяти, а в самих вычислительных возможностях видеоядра. В качестве 4К2К теста я использовал Dark Souls 2 с патчем на даунскейл графики. Сам по себе Dark Souls не блещет ни графикой, ни системными требованиями. На средне-высоких настройках можно спокойно играть в FullHD разрешении с мобильной видеокартой GT650M и 1 ГБ видеопамяти. Основная нагрузка в данном случае ложится на GPU, а не на видеопамять: так как никаких супер-сложных спецэффектов не применяется, постобработка достаточно примитивная, а сама игра разрабатывалась с учётом возможностей консолей прошлого поколения (для тестов использовалась первая версия, без Scholar of the First Sin). С даунскейлом 3840х2160 до 2560х1440 NVIDIA GTX 970 выдаёт уверенных 15-18 FPS, с разгоном — 16-19. То же упражнение, но с разрешением 5120х2880 вовсе приводит к удручающим 12-14 FPS.

    Для сравнения, старый AMD HD7970 с 3 ГБ видеопамяти и работающий с небольшим разгоном (1024 МГц ядро, 5600 (1400х4) МГц память) уверенно выдаёт 25-30 FPS для разрешения 3840х2160 точек и 20-22 FPS для 5120х2880.

    Почему так происходит


    Во-первых, архитектура видеоускорителей AMD и NVIDIA сильно отличается как с точки зрения «общей философии», так и в некоторых частных подходах.

    Видеокарта GeForce GTX 970 имеет базовую частоту ядра 1050 МГц и 4 гигабайта памяти GDDR5, работающую на частоте 1750х4 МГц, подключённую по 256-битной шине, разбитой на 8 сегментов по 32 бита каждый. Общий блок в 3.5 ГБ подключён через 224-битный сегмент, дополнительные 512 МБ подключены через 32-битный сегмент, что и является причиной замедления работы видеокарты, когда приложения вылезают за пределы 3.5 ГБ видеопамяти.

    Ядро видеокарты Radeon R9 280X, работает на частоте в 1000 МГц и использует память 1500х4 МГц, подключённую по 384-битной шине. Она хоть и разделена на 6 двухканальных 64-битных блоков, но ни один из них не отключён, так что вся память доступна на полной скорости, пусть её и всего 3 ГБ.

    Напрямую сравнивать характеристики (например, число TMU — texture mapping units) нет смысла: различная архитектура, частота работы и прочие особенности не могут наглядно отобразить превосходство той или иной видеокарты. Если приводить абстрактную аналогию: что больше займёт места — 20 ящиков какого-то неизвестного объёма или 30 ящиков немного другого? Только измерив объёмы и умножив на число ящиков мы можем точно ответить на данный вопрос.

    Так что для актуального сравнения видеокарт лучше подставим показатели производительности R9 280X (она же 7970 1GHZ Edition) и GTX 970: они уже приведены к общему знаменателю и имеют одинаковую размерность. В обоих случаях будем сравнивать референсные значения стандартных ускорителей, а не разогнанных экземпляров различных вендоров.
    R9 280X
    GTX 970
    Производительность GPU, ГФЛОПС:
    3, 482
    3, 494
    Пропускная способность памяти, МБ/сек.:
    288 000
    224 000
    Скорость заполнения
    пиксельная, МП/сек.:
    27 200
    58 800
    текстурная, МТекс./сек.:
    108 800
    109 200

    Как видите, основное отличие производительности в области пиксельной скорости заполнения. Она отвечает за превращение полученных вычислений в готовый кадр: чем выше пиксельная скорость заполнения (pixel fill rate), тем, по идее, быстрее видеокарта может превращать «магию» в двухмерные картинки, которые можно отправлять монитор. Было бы что отправлять, и в этом кроется весь секрет. Если мы запускаем игрушку на невысоком разрешении, скажем, 1280х800, нагрузка на память и вычислительные ядра не высока: количество готовых кадров зашкаливает и видеокарта, допустим, может выдавать 100 или даже 200 FPS в простых сценах, если сможет превратить всё то, что она насчитала в двухмерную картинку и отправить её на монитор.

    Если же мы запускаем игры в высоком разрешении, то каждый кадр становится намного сложнее в расчётах, кадровая частота снижается, а на ROP’ы (модули видеокарты, которые отвечают за перевод картинки в плоский кадр) ложится дополнительная нагрузка: есть разница, считать 1280х720=921 600 точек или 2560х1440=3 686 400 точек. Частота вывода готовых кадров падает, но падение производительности на всех предыдущих этапах сильнее, чем дополнительные потери на ROP’ах, и поэтому на невысоких разрешениях большие показатели pixel fill rate дают огромный прирост к результатам бенчмарков, а на всяких SuperUltraHD и 4K2K игры упираются в производительность самой видеокарты, а не выводящих картинку модулей, и результаты выравниваются.

    Видеокарта от AMD отличается более высокой пропускной способностью памяти (показатели отличаются почти на 30%) и меньшим её объёмом (3 ГБ против 3.5+0.5 у GTX 970), сравнимой производительностью ядра, чуть большим количеством шейдерных процессоров. Именно здесь красно-белые и выиграли у чёрно-зелёных: производительности ROP’ов оказалось достаточно, а вот бонусы в лице высокой пропускной способности памяти и большем количестве вычислительных блоков сделали свою работу: при штатных частотах и высокой нагрузке HD 7970 или R9 280X смогла обогнать GTX 970. С поправкой на то, что игра не требовала больше 3 ГБ видеопамяти. Правда, цена этого превосходства — чудовищное энергопотребление Radeon’ов, и, как следствие, высокий нагрев, не самый приятный акустический режим работы и так себе разгон.

    Итоги


    GTX 970 — отличная видеокарта, которая позволит вам играть пару-тройку лет на высоких настройках во что угодно. Ущербной её назвать язык не поворачивается. 4К2К мониторов пока мало, оптимизация под них так себе, игровые движки развиваются… В общем, через несколько лет будет польза от всех этих нововведений и улучшений архитектуры. Если же вам нужна видеокарта сегодня… Что ж, для разрешения 1920х1080 и 2560х1440 GTX 970 отлично подходит. Она тихая, отлично гонится, не занимает много места и не требует супер навороченный блок питания.

    Что касается памяти и споров 4 гигабайта или 3.5 — знаете, если бы NVIDIA вообще заблокировала этот кусок памяти и написала на видеокарта 3.5 ГБ — было бы намного хуже. Будь я на месте высокого начальства — продавал бы видеокарты с заявленными 3.5 ГБ и фактическими 4, такими, какие они есть сейчас. Как только это бы вскрылось — фанаты бы на руках носили компанию, мол, дарят 512 памяти. Пусть и не быстрой. Но дарят. На халяву! Ну а производительность… честно, в пылу сражений Battlefield’а или Far Cry вы не увидите разницу между «очень высокими» настройками текстур и просто «высокими», и никогда не увидите оверхэд. А во всех остальных играх можно смело ставить максимум. :)



    А для фанатов bleeding edge технологий, 4К2К и прочих прелестей неограниченных бюджетов есть всякие Titan’ы и прочие R9 295X2. Пусть покупают и радуются. :)

    Выводы


    Выводы каждый волен делать самостоятельно. Как по мне, так истерика с памятью в GTX 970 была надуманной: на производительности это практически не сказывается, а будущее обновление драйверов и патчи к играм позволят что-нибудь подшаманить таким образом, чтобы владельцы GTX 970 не испытывали вообще никаких неудобств.

    Что касается соотношения цены и производительности, то здесь, мне кажется, вариант с R9 280X… куда вы меня тащ…

    Наши обзоры:
    » Подключаем оригинальные геймпады к ПК
    » Razer Abyssus: самый доступный Razer
    » Nikon 1 S2: однокнопочная беззеркалка
    » Обзор Lenovo Miix 3-1030
    » Разбираемся в арт-хаосе компании Wacom
    » ASUS ZenFone 5, LG L90, HTC Desire 601 — двухсимочная война за потребителя, часть 1
    » ASUS Transformer Pad
    » Гарнитуры Razer Kraken

    Цикл PC Buyer’s Guide:
    » PC Buyer's guide: выбор видеокарты
    » PC Buyer's Guide: выбор блока питания
    » PC Buyer's Guide: охлаждение
    » PC Buyer's Guide 2015: Материнские платы, чипсеты и сокеты
    » Кручу-верчу, запутать хочу. Разбираемся в линейках HDD

    Похожие публикации

    AdBlock похитил этот баннер, но баннеры не зубы — отрастут

    Подробнее
    Реклама

    Комментарии 23

      +2
      Будь я на месте высокого начальства — продавал бы видеокарты с заявленными 3.5 ГБ и фактическими 4, такими, какие они есть сейчас. Как только это бы вскрылось — фанаты бы на руках носили компанию, мол, дарят 512 памяти.
      Во всех книжках по бизнесу так и учат. Непонятно, почему они не приняли это очевидное решение.
        +2
        Diablo 3 упирается в звуковую систему. Если не лень, можете поставить число звуковых каналов в 16, и это уже сильно повысит fps. Если ещё более не лень, в гугле есть ещё пара настроек, спасающих ситуацию.

        А про меня и GTA 5 вы зря написали. Я уже обновил там, проблемы были в кривых дровах AMD, кто бы сомневался.
          +1
          Хм, не думал о звуковой системе, проведу тесты. Спасибо. :)
            +3
            Вот дожили. Что на Pentium 166 приходилось ковырять звук и выбирать число каналов, чтоб не лагало, что спустя 20 лет…
            –7
              +2
              В самом начале поста есть ссылки на первую и вторую части серии постов. Там это видео в самом начале, и из-за этого видео и началась серия постов. :)
              0
              А теперь самое главное. Что с разгоном, что без — видеокарта удивительно тихая.

              А теперь запустите встроенный тест оценки производительности 7 винды и оцените шум там.
              Вентиляторы у стрикса и msi G4 очень тихие, да.
              Только вот толку с этого, если дроссели на моем экземпляре трещали раз в 20 сильнее этих тихих вентиляторов.
                +1
                На моей не свистели. Вопрос партии, поставки, условий гарантий вашего магазина. Можно было заменить видеокарту. :)
                • НЛО прилетело и опубликовало эту надпись здесь
                    0
                    А какой производитель? MSI?
                      0
                      Видимо все-таки ASUS, вроде только их серия STRIX имеет адаптивный режим работы вентилятора.
                      У меня вообще кайф, EVGA 1000 P2 с адаптивной вентиляцией, и две GTX 980 STRIX купил в SLI — мне пока не удалось заставить их крутиться под нагрузкой, только при запуске компьютера или при ручной установке частоты вращения.
                      С картами правда небольшой конфуз вышел, они видимо из разных партий, немного отличаются внешне, и у них разный BIOS, одна из карт на загрузке компьютера практически сразу глушит вентиляторы, а вот вторая крутит их почти до логина в ОС.
                        0
                        MSI вообще в Twin Frozr V обещают пассивное охлаждение без нагрузки.
                        • НЛО прилетело и опубликовало эту надпись здесь
                      • НЛО прилетело и опубликовало эту надпись здесь
                    0
                    Почему вы основной упор делаете на разрешение? От разрешения зависит только количество задействованных блоков процессора для пиксельного шейдера и ROP'ов. Видеопамяти не для разрешения так много ставится, там не хранится 60 буферов кадра одновременно. При загрузке уровня, геометрия/текстуры просто погружаются в память карты, и, потом, отрисовываются не с винта/оперативки, а из внутренней памяти. Чем больше памяти, тем большую сцену можно загрузить в память и рисовать очень быстро. Если память на исходе (а 4 гига это только кажется, что много — сверхдетализированные юниты и тестура высокого разрешения, а то и не одна), то часть объектов из памяти выгружается, а загружаются другие. Тут вполне можно представить сценарий, в котором какой-либо мгновенно понадобившийся юнит будет подгружаться в медленную память, и как следствие — лаги и проседание частоты кадров.
                      +2
                      Если всё так просто, как вы говорите — почему на одних и тех же настройках в том же Dark Souls, в котором нет ни требовательных высокополигональных моделей, ни убертекстур на высоком разрешении GTX 970 выдаёт так мало кадров? :)
                        0
                        Как раз потому, что буфер кадра вырос в 4 раза. Если даже предположить, что при увеличении в 4 раза на экране не будет видно больше геометрии (просто увеличится четкость картинки), то всяко учетверится количество выполняемых пиксельных шейдеров. Всякие тесселяции и сглаживания и отъедают большую часть ресурсов, а они повторяются для каждого пикселя.
                        Хотите увеличить в 4 раза выполняемую работу без просадки фпс? Увеличивайте частоту шейдерных процессоров или их количество в 4-6 раз. Память тут играет очень опосредованную роль, как вы сами можете посчитать — 1-2 буфера кадра поместится и в быструю часть памяти.
                        Да и не будем забывать, что DarkSouls просто может быть написан на движке, который плохо оптимизирован для работы с такими разрешениями, ибо движкописатели тоже знают принцип Парето и не будут стараться для считанных процентов игроков с 4к.
                          0
                          Тесселяция выполняется для геометрии и на разрешение результирующего фреймбуфера ей в общем-то пофиг, если только ее степень искусственно не регулируется площадью (числом пикселей), которую геометрия будет занимать после отрисовки.
                          Стоит учитывать, что фреймбуфер это не самый крупный вкладчик в расход видеопамяти, скорее виновниками можно назвать текстуры.
                            0
                            По поводу тесселяции — согласен, говорят там отдельный конвеер для ее выполнения. Но остаются еще кучу пиксельных эффектов, которые напрямую зависят от разрешения фреймбуфера. А ваш вывод про вклад фреймбуфера в расход памяти это ровно тот факт, чтобы донести который, я и начал эту ветку.
                              0
                              Кстати, то ради чего была придумана тесселяция раньше делалось каким-нибудь bump mapping'ом, и не факт что теперь все отказались от него в пользу новой техники. А это именно пиксельный эффект и он зависит от разрешения.
                                0
                                Действительно, большинство эффектов от тесселяции могут быть приближены с помощью normal/bump, parallax/parallax occlusion mapping, и зачастую это более оправдано, чем настоящая тесселяция.
                                Обычно пиксельный шейдер содержит самое больше из всех стадий число семплирований текстур, так что рост числа пикселей ещё и сильно повышает нагрузку на память.
                                А ещё можно реализовать в пиксельном шейдере настоящую трассировку лучей, и тогда разрешение имеет колоссальное влияние на быстродействие.
                        0
                        На первом скрине не 970 или я что-то пропустил?
                        На Asus STRIX 970 одно 8 пиновое питание, на скрине 6+8.
                          0
                          980 видимо, у меня несколько таких, меня не обмануть :-)
                          А вот на втором скрине все верно, только один вывод SLI, у 980 их два.

                        Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                        Самое читаемое