Ага… вот творят творцы на таких видюхах, а потом ни одна игра на обычных компах не идет. И народ удивляется, да чего ж ей запихать нужно в корпус.
«А мужики то не знают....»
А что, разве нормально что разрабы зачастую (сам видел) делают игры на компьютерах, на которых они вообще на полную мощность не идут? А потом геймеры удивляются — и откуда баги берутся при максимальных настройках!?
Для CAD столь мощное 3D не требуется. Там нужно другое. Например чтобы карта выводила сигнал на 2 монитора с разрешением 2048*1536 с минимальными искажениями в 2D
Не знаю что насчёт этой видеокарты, но на обычных, чтобы выполнять вычисления на графическом процессоре используется CUDA. Просто интересно какие именно CAx держит эта или возможно другая видеокарта, для примера, CATIA, NX Unigraphics, Pro/Engineer и так далее. Естественно это всё касается не вывода графики, а просчёта алгоритмов моделирования, так как в дрова по определению заложен графический ускоритель.
Quadro FX никогда на геймеров не ориентировались и никогда на них не делались игры, ибо в технологическом плане отставали, а выигрывали только в скорости расчетов. В играх и эта скорее всего проиграет GeForce X280.
Ффух… Аж дух захватило когда читал) Если Adobe действительно будет работать с ресурсами видеокарты, как пророчили, интересно было бы посмотреть на этот агрегат в действии!!! (Adobe CS4 докачался только к утру, еще не успел протестировать на предмет загрузки процессора)
В Линукс-системах такая видеокарта много пользы наверное не принесет, ведь серия Quadro — это CAD-ориентированные карты, и фишка в том, что их Windows-драйверы оптимизированы для работы с CAD-программами типа SolidWorks и т.д.
Вы тоже читали Популярную Механику этого месяца? :) Кажись, на риторический вопрос «вернется ли атомная энергия» ответ найден специалистами компании NVIDIA.
Это в связи с тем что это 55нм версия видео чипа GT200, полным аналогом этой карты является GTX280, но пока на 65нм, ну и с меньшим количеством памяти.
Интересно, много ли «обычных» пользователей купит данный продукт…
Учитывая даже самые «навороченные» игры, 4гб оперативной памяти на видеокарте — многовато.
Типа, загрузил утром текстуры фаркрай чтобы если что вечерком без загрузки поиграть )
«Центральный процессор Quadro FX 5800поддерживает, не 8-, как обычно, а 10-битный цвет, что позволяет работать c несколькими миллиардами цветов и их оттенков.»
Очень повеселила данная цитата.
А зачем обычному пользователю это видеокарта если написано что целевая аудитория — «Новая Quadro FX 5800 предназначена для профессионалов, работающих в области 3D-графики, архитекторов, проектировщиков игр и видеографики.» Как бы так.
Как бы данная цитата(или её модификации) употребляется почти в каждых пресс-релизах нового железа. Ведь в Кее такие карточки лежат не для «случайно зашедших» специалистов из Autodesk =)))
Судя по внешнему виду SLI на ней не поднять — контактик если и есть то под крышкой.
Интересно вот только как они добились заявленой пропускной способности памяти. Многовато както.
Ну и еще смутил 10 битный цвет — ведь уже давно придуманы и используются MRT(Multiple Render Targets) где хорошим тоном является просто навсего float цвет.
Вчера вот играл в Lost Planet там при HDR->Max четко сказано что 64к цвет(float RGB16)
Я вас тоже — чисто технически карте пофиг что воспроизводить.
Если спецификация DX & OGL которые карта должна обрабатывать, а рисовать можно все что угодно
По крайней мере Кватро времен GF FX очень даже шустро обрабатывала игрушки.
Не совсем так. Драйверы на Quadro оптимизированы на отрисовку линий, более высокую точность вычислений в ущерб производительности и т.п. К тому же в любых драйверах всегда есть ошибки, а игры скорее всего даже не тестируются на этих картах и никто правильную работу не гарантирует.
Интересно, у неё теперь все блоки умеют работать с double, или вновь, как и в ранних моделях для них созданы отдельные, в меньшем количестве, что негативно сказывается на скорости высокоточных расчётов.
Tesla, например, имела такой недостаток.
Nvidia, что бы не быть голословными, следовало бы привести еще и результаты тестов по сравнению с обыкновенными «топовыми» видеокартами — Nvidia 260 GTX и ATI 4870, ведь не только под Linux она будет работать… ;-)
Читаем мой коммент выше.
С другой стороны, тех процесс добавил каких то функциональных блоков? Клон он и есть клон, что в нем другого? Просто профессиональные раньше перевели, домашние позже переведут.
У него увеличилось/уменьшилось число функциональных блоков? Да новый техпроцесс не сомненно эволюция которая помогла снизить тепловыделение на 50Вт, это много, но чип то остался тот же, просто слегка уменьшился в размере =)
Да уменьшился тех процесс, но сделайте копию эйфелевой башни, 4:1, она не будет клоном?
По вашей логике получается что 4200 Ti это такая маленькая 8800 GTS — т.е. клон. Т.е. все видеокарты нвидия клоны друг друга: «подумаешь чип другой, но по сути это же тоже ВИДЕОКАРТА».
Помню для DOS`а была такая утилитка «vidram». Так вот она для приложений давала дополнительную память, «вытаскивая» ее из видеопамяти… Писали мои коллеги тогда на Кларионе банковские программы. Ностальжи :-)
А ведь с помощью нее можно производить распределенные вычисления с немыслимой скоростью =))
WiFi ломать, MD5, и прочее и прочее.
Вон, Elcomsoft выпустили утилитку. До 10 юзеров — халява)) Умеет для некоторых видов подбора пароля юзать видеокарты nVidia. Со 250 паролей в секунду (4-х ядерный intel) скорость подскакивает до 2500 (у меня). www.elcomsoft.ru/edpr.html кому интересно.
Мощнейшая видеокарта в мире