Comments 94
Вот это зверь…
Хотя бы Nvidia не так ориентирована на геймеров, нежели АТI. Работай, как говорится, твори. ;)
UFO just landed and posted this here
Ага… вот творят творцы на таких видюхах, а потом ни одна игра на обычных компах не идет. И народ удивляется, да чего ж ей запихать нужно в корпус.
«А мужики то не знают....»
«А мужики то не знают....»
В точку +1 Это как говорится трыв от реальности. Они игру сделают, а мы поиграть в нее нормально можем только через полгода-год.
«Профессиональная» — не значит, что для гейм-девелоперов.
Рекомендую перечитать заметку.
Эта карта не для прогриммистов игр. Карта для CAD. И для него она оптимизирована начиная с драйверов и заканчивая самими кадами.
Для CAD столь мощное 3D не требуется. Там нужно другое. Например чтобы карта выводила сигнал на 2 монитора с разрешением 2048*1536 с минимальными искажениями в 2D
Драйвера для вывода графики и тот же OpenGL в них это тоже дрова, а CAx вряд ли оптимизированы под видеокарты.
Для CAD в комплекте с драйверами поставляются специальные либы, как впринципе и с процессорами.
Не знаю что насчёт этой видеокарты, но на обычных, чтобы выполнять вычисления на графическом процессоре используется CUDA. Просто интересно какие именно CAx держит эта или возможно другая видеокарта, для примера, CATIA, NX Unigraphics, Pro/Engineer и так далее. Естественно это всё касается не вывода графики, а просчёта алгоритмов моделирования, так как в дрова по определению заложен графический ускоритель.
Quadro FX никогда на геймеров не ориентировались и никогда на них не делались игры, ибо в технологическом плане отставали, а выигрывали только в скорости расчетов. В играх и эта скорее всего проиграет GeForce X280.
UFO just landed and posted this here
Ффух… Аж дух захватило когда читал) Если Adobe действительно будет работать с ресурсами видеокарты, как пророчили, интересно было бы посмотреть на этот агрегат в действии!!! (Adobe CS4 докачался только к утру, еще не успел протестировать на предмет загрузки процессора)
Об этом Nvidia подумали. Есть специальная видеокарта. www.nvidia.com/object/product_quadro_cx_us.html
Эээ…
дайте две
дайте две
эх… лет через десять куплю себе такую
Хочу туда поставить линукс
На эту видеокарту что ли Линукс поставить? :))))
В Линукс-системах такая видеокарта много пользы наверное не принесет, ведь серия Quadro — это CAD-ориентированные карты, и фишка в том, что их Windows-драйверы оптимизированы для работы с CAD-программами типа SolidWorks и т.д.
В Линукс-системах такая видеокарта много пользы наверное не принесет, ведь серия Quadro — это CAD-ориентированные карты, и фишка в том, что их Windows-драйверы оптимизированы для работы с CAD-программами типа SolidWorks и т.д.
>обеспечивать исследователям визуализацию объектов в высоком разрешении на обычной рабочей станции, работающей под управлением ОС Linux.
С таким объемом памяти можно и ХР отдельную на нее поставить :)
Еще как принесет, там можно поставить демуксер и сделать общение ~200 человек голосом в локалке.
Только надо сделать
crossdev nv5800-pc-linux-libc
Только надо сделать
crossdev nv5800-pc-linux-libc
Актуальная новость.
www.google.ru/search?hl=ru&q=NVIDIA+Quadro+FX+5800
Результаты 1 — 10 из примерно 117 000 для NVIDIA Quadro FX 5800
Результаты 1 — 10 из примерно 117 000 для NVIDIA Quadro FX 5800
и сколько она жрет энергии?
В нее встроен pocket ядерный реактор, который обеспечивает 50% потребности видеокарты в энергии.
Как ни странно немного — пишут что она потребляет 189 Ватт
www.3dnews.ru/news/samaya_moshnaya_v_istorii_videokarta_ot_nvidia_za_3500/
www.3dnews.ru/news/samaya_moshnaya_v_istorii_videokarta_ot_nvidia_za_3500/
189W
Интересно, много ли «обычных» пользователей купит данный продукт…
Учитывая даже самые «навороченные» игры, 4гб оперативной памяти на видеокарте — многовато.
Типа, загрузил утром текстуры фаркрай чтобы если что вечерком без загрузки поиграть )
«Центральный процессор Quadro FX 5800поддерживает, не 8-, как обычно, а 10-битный цвет, что позволяет работать c несколькими миллиардами цветов и их оттенков.»
Очень повеселила данная цитата.
Учитывая даже самые «навороченные» игры, 4гб оперативной памяти на видеокарте — многовато.
Типа, загрузил утром текстуры фаркрай чтобы если что вечерком без загрузки поиграть )
«Центральный процессор Quadro FX 5800поддерживает, не 8-, как обычно, а 10-битный цвет, что позволяет работать c несколькими миллиардами цветов и их оттенков.»
Очень повеселила данная цитата.
Поделитесь мониторчиком для такой цветности :)
А зачем обычному пользователю это видеокарта если написано что целевая аудитория — «Новая Quadro FX 5800 предназначена для профессионалов, работающих в области 3D-графики, архитекторов, проектировщиков игр и видеографики.» Как бы так.
Какие игры, вы что? В современных играх данная карта запросто проиграет какой-нибудь захудалой 9800GT, не говоря уже о более мощных.
Это карта не для пользователей.
Для пользователей GTX280, начинка одна.
Для пользователей GTX280, начинка одна.
А она и не для обычный пользователей. Адепты ГИС точно оценят.
Судя по внешнему виду SLI на ней не поднять — контактик если и есть то под крышкой.
Интересно вот только как они добились заявленой пропускной способности памяти. Многовато както.
Ну и еще смутил 10 битный цвет — ведь уже давно придуманы и используются MRT(Multiple Render Targets) где хорошим тоном является просто навсего float цвет.
Вчера вот играл в Lost Planet там при HDR->Max четко сказано что 64к цвет(float RGB16)
Интересно вот только как они добились заявленой пропускной способности памяти. Многовато както.
Ну и еще смутил 10 битный цвет — ведь уже давно придуманы и используются MRT(Multiple Render Targets) где хорошим тоном является просто навсего float цвет.
Вчера вот играл в Lost Planet там при HDR->Max четко сказано что 64к цвет(float RGB16)
Я вас может разочарую, но карта не игровая :)
Я вас тоже — чисто технически карте пофиг что воспроизводить.
Если спецификация DX & OGL которые карта должна обрабатывать, а рисовать можно все что угодно
По крайней мере Кватро времен GF FX очень даже шустро обрабатывала игрушки.
Если спецификация DX & OGL которые карта должна обрабатывать, а рисовать можно все что угодно
По крайней мере Кватро времен GF FX очень даже шустро обрабатывала игрушки.
Интересно, у неё теперь все блоки умеют работать с double, или вновь, как и в ранних моделях для них созданы отдельные, в меньшем количестве, что негативно сказывается на скорости высокоточных расчётов.
Tesla, например, имела такой недостаток.
Tesla, например, имела такой недостаток.
Nvidia, что бы не быть голословными, следовало бы привести еще и результаты тестов по сравнению с обыкновенными «топовыми» видеокартами — Nvidia 260 GTX и ATI 4870, ведь не только под Linux она будет работать… ;-)
Эта карта клон GTX280, зачем с ней сравнивать?
Разница в драйверах и оптимизированном софте, на g80 например можно было GeForce перешить в Quadro.
Разница в драйверах и оптимизированном софте, на g80 например можно было GeForce перешить в Quadro.
У нас с вами, видимо, разные понятия слова клон, т.е. по вашим рассуждениям новый тех процесс — это клонирование старого, по моим — это эволюция.
Т.е. новый чип, а здесь он уже НЕ GT200, позволит сделать 290 однослотовой и производительнее чем 280, как например 8800 GT в своё время.
Т.е. новый чип, а здесь он уже НЕ GT200, позволит сделать 290 однослотовой и производительнее чем 280, как например 8800 GT в своё время.
У него увеличилось/уменьшилось число функциональных блоков? Да новый техпроцесс не сомненно эволюция которая помогла снизить тепловыделение на 50Вт, это много, но чип то остался тот же, просто слегка уменьшился в размере =)
Да уменьшился тех процесс, но сделайте копию эйфелевой башни, 4:1, она не будет клоном?
Да уменьшился тех процесс, но сделайте копию эйфелевой башни, 4:1, она не будет клоном?
По вашей логике получается что 4200 Ti это такая маленькая 8800 GTS — т.е. клон. Т.е. все видеокарты нвидия клоны друг друга: «подумаешь чип другой, но по сути это же тоже ВИДЕОКАРТА».
Не-не-не, здесь мы с вами разойдемся.
Не-не-не, здесь мы с вами разойдемся.
По вашему 4200 имеет такое же количество функциональных блоков?
Вы идиот.
Вы идиот.
С такими формулировками ваш коммент может стать первым в «лучших» :)
А смысл?
260 и 4870 — это игровые карты, поэтому некорректно сравнивать их с Quadro.
UFO just landed and posted this here
Помню для DOS`а была такая утилитка «vidram». Так вот она для приложений давала дополнительную память, «вытаскивая» ее из видеопамяти… Писали мои коллеги тогда на Кларионе банковские программы. Ностальжи :-)
А на ней DOOM 1 пойдет? =)
UFO just landed and posted this here
Вот Элкомсофту то раздолье :) Какова у нее производительность подбора паролей? ;)
/побежал разбивать копилку
мне вот интересно… недавно пост проскакивал, про использование видеокарт для выполнения трудоемких вычислений)
как эта карточка себя тут покажет)))
как эта карточка себя тут покажет)))
кулер на ней такой мелкий =)
А не е**нёт? © =)
Мдя… Куда я лезу со своей Radeon 9600. )))
Ну да, круто круто ))) Интересно, на ней не будет Тормозить Crysis на полных настройках? Тогда я её куплю :)
А ведь с помощью нее можно производить распределенные вычисления с немыслимой скоростью =))
WiFi ломать, MD5, и прочее и прочее.
Вон, Elcomsoft выпустили утилитку. До 10 юзеров — халява)) Умеет для некоторых видов подбора пароля юзать видеокарты nVidia. Со 250 паролей в секунду (4-х ядерный intel) скорость подскакивает до 2500 (у меня).
www.elcomsoft.ru/edpr.html кому интересно.
WiFi ломать, MD5, и прочее и прочее.
Вон, Elcomsoft выпустили утилитку. До 10 юзеров — халява)) Умеет для некоторых видов подбора пароля юзать видеокарты nVidia. Со 250 паролей в секунду (4-х ядерный intel) скорость подскакивает до 2500 (у меня).
www.elcomsoft.ru/edpr.html кому интересно.
Sign up to leave a comment.
Мощнейшая видеокарта в мире