Pull to refresh

Comments 60

Спасибо за подборку внешних видов от партнеров NVIDIA — значительно легче будет искать на витринах.
Что ж, NV еще раз показала, что работой по оптимизации кода игр, можно вытянуть ситуацию, но ситуация с техпроцессом сильно настораживает…
Цены на видео в начале этого года уже и так подскочили.
А не с точки зрения игр, а для разработки что нового в них? Можно следующим выпуском ;)
Для разработки чего именно? Я думал, что для обработки изображений все пользуются Quadro) или я вас не правильно понял?
Новые карточки поддерживают разработку под CUDA на C++, раньше был чистый Си.
Вы думаете на карточках код исполняется? Просто вышел новый Toolkit 3.0 в нём добавлена поддержка нескольких фич из С++, но они и под другие поколения будут компилится нормально.
Ну не обязательно, многие используют игровые карточки для работы с 3d. Разница почти-что только в драйверах, цена больше во много раз, а вот производительность увеличивается существенно меньше цены. Да и для CUDA лучше использовать игровые карточки. Вычислительная мощность у них не меньше quadro, а Tesla дорогие и их есть смысл брать только сразу 3, чтобы упаковать рабочую станцию до мощности сервера, ну или в серверном блейд варианте, где собственно выбора нет.
Существенно улучшена поддержка вычислений с двойной точностью. Прирост до 8 раз относительно поколения 1.3 (GT200). Полное соответстве IEEE-754
Расширены максимальные значения количества потоков в блоке. Увеличено количество shared memory на один мультипроцессор в два раза. Улучшены алгоритмы кеширования данных, branch prediction. Увеличена производительность простуйших атомарных операций.

Добавлена ECC. Но эта фишка я так понял для более надёжного хранения данных.

В общем для вычислений с использованием CUDA прирост будет очень существенный.

Ну и ещё NVIDIA планирует выпустить Nexus. Это add-in к VS с продвинутыми средствами разработки и анализа параллельных приложений.
UFO just landed and posted this here
Ну, это и так было понятно. Сейчас двухголовика зафигачат.
Если чипов годных хватит :)
ага, представляю тогда его энергопотребление :)
в пике все 700 будут… это фантастика пока
хороший обогреватель, жаль что с сезоном не угадали =)
Горячая штучка, через чур горячая…
столько времени делали — и что? опять огромный горячий монстрюга, который лишь чуть-чуть быстрее 5870, позор! ati на ближайшие годы определенно рулит =)
Полностью согласен!!! Особенно меня поразило количество «фейков», которыми нас упорно кормила на протяжении всего периода разработки… После такого позора они были просто обязаны сделать что-то выдающееся, а не просто очередное поколение видеокарт.
Они обещали до 40% быстрей 5870 :) Что-то я от силы вижу 10, учитывая возраст однопроцессорного флагмана. И % выхода годных чипоув у нвидии)
>который лишь чуть-чуть быстрее 5870, позор! ati на ближайшие годы определенно рулит =)

Кстати, как там у ATi насчёт аппаратной поддержки PhysX.
В принципе никак, это проприетарная технология нвидии, основанная на CUDA. А ATI поддерживает OpenCL, если интересно — на википедию.
Про CUDA и OpenCL читал, меня не это интересует. Пробовал разобраться в этой катавасии, хотя не уверен, что правильно их понял. Получается, что PhysX 2.8.1 поддерживает CPU, GPU и PPU, но не работает например в линуксе, только винда.

А PhysX 2.8.3 полностью переписан под CUDA и поддерживает лишь CPU и GPU и намёки ещё были, что CUDA есть в линуксе. Причём под GPU понимается видеокарта NVidia восьмой серии или выше. Что касается ATi, то что-то там говорили про старые изменённые дрова.

В любом случае самолично мне удалось проверить лишь PhysX 2.8.1 на CPU в линуксе и винде. Всё прекрасно работает, если не считать, что на моей видеокарте NVidia шестой серии естественно никакого аппаратного ускорения физики нет.

А вопрос между тем интересен. Вот сейчас посмотрел уже обзоры новые появились (http://www.ixbt.com/video3/physx_2009.shtml). Если брать видеокарту, то надо думать об ускорении не только графики. Всё ж таки PhysX пока что единственный движок который можно использовать с SDK и аппаратной поддержкой. Не слышал чтобы на OpenCL сделали хотя бы что-то отадлённо подобное.
Да, тут у нвидии фора серьезная. Но по ссылке как раз написано про аналог на OpenCL с оптимизацией под ati stream. Его официально аннонсировали только осенью 2009, так что неудивительно что оно еще сырое.
Я бы с радостью посмотрел аналог, но ссылок что-то не вижу. Судя по датам изменений файлов PhysX SDK 2.8.1 испытывал ещё в 2008 году. Так то понятно, что движок можно портировать на CUDA и OpenCL. Но мне приходится исходить из того что есть уже сейчас.
Вот так выглядят старые пакеты для винды и линукса:
PhysX_2.8.1_SDK_Core.msi
PhysX_2.8.1_SDK_CoreLinux_deb.tar.gz
PhysX_2.8.1_SDK_CoreLinux_rpm.tar.gz

Мне не ссылка на вики нужна, что кто-то что-то анонсировал, а ссылка на SDK где этот движок уже реализован.
Trinigy Vision Engine обещают скоро, но точных сроков не называют. Точнее сами движкти там есть, нет интеграции с OpenCL. Но пощупать SDK для «Digital Molecular Matter» и «Bullet» уже можно.
Лучше подождать, интерес ведь вызывает именно аппаратная поддержка. Хотя к чести физикс могу сказать, что он ещё и обладает множеством возможностей выходящим далеко за рамки твёрдотельной динамики.

А вот то что про Digital Molecular Matter говорят что он платный не радует. Сомневаюсь я что его возможности превзойдут флюиды, мягкие тела, ткани и прочие фишки физикса. И если ещё платить надо, то понятно дело для простого исследования это неприемлемо.
Финальный продукт будет состоять как с открытой, так и с проприетарной компонент. Например, лицензиат сможет бесплатно использовать в своём продукте свободную составную движка (которая реализована через свободный «Bullet»); чтобы получить возможности коммерческого «Digital Molecular Matter», нужно будет покупать лицензию.

8 марта 2010 года было официально объявлено, что для использования на персональных компьютерах Digital Molecular Matter будет распространятся по бесплатной лицензии.


То есть за «пощупать» денег брать не будут, только за коммерческое использование.
Я кстати ошибся, версия Bullet с поддержкой OpenCL уже есть и довольно давно.

GPU physics kernels preview, in preparation for Bullet 3.x. Right now mainly CPU version, you can enable CUDA version manually. The OpenCL version is available in a separate branch. See Bullet/Demos/Gpu2/3dDemo


code.google.com/p/bullet/source/browse/#svn/branches/OpenCL
В первой таблице: когда это на 9800GTX ставили gddr2?
Неплохо. Но учитывая то, какие счас дрова у меня на 260-ке — вернусь-ка я осенью в стан красно-белых.
Тогда уже подожди до начала следующего года, кажется тогда будет 6 линейка Radeon, она будет не менее удачной
И стоить? :) Потом я подожду осени, до адекватных цен, нереференсных охлаждений и отлаженного техпроцесса. Потом подождем снова начала года… :)

5850(!) тянет dirt2 с восьмикратным сглаживанием на 30дюймовом мониторе 100 fps. Куда толще видяху, учитывая, что на моём дредноуте 8 гиг достаточно медленной по сегодняшним меркам DDR II памяти.
slamms, у вас отличные обзоры, спасибо!

На мой взгляд не хватает разброса цен. Было бы отлично знать примерную стоимость новой железяки -)
Примерно 450-500$. Но сколько она стоить в реальности будет никто думаю не может точно сказать.

EzS спасибо, буду рад увидеть вас в числе поклонников блога)
Спасибо, теперь всё на месте: просто очень удобно видеть тесты, сравнения и одновременно видеть стоимость железяки. Есть, что сравнить и прикинуть покупку.

Спасибо ещё раз!

P.S. Стал поклонником-)
Вам в мире или в россии? В мире начнется с 650+-, в россии с 850)
И вам спасибо за ответ! Спасибо за отзывчивость!-)
Ну про 850 в России, кстати, легко верится, я тут 295 пару месяцев назад видел за 20к)))
Ага. Учитывая ввозные пошлины и наших маркетологов — к приличной цене она спустится за пол года. Интересно, чем красно-белые ответят? будет-ли выполнена «Работа над ошибками», как для 4870 была 4890 — так для 5870 и для 5970 могут стать 5890 и 5990 соотвественно.
Был в марте на пресс-конференции AMD, ни о чем подобном даже речи не было. Все их силы направлены на занятие ниши low-end
Ну они столько времени рулили — пуст зеленые порулят чутка.
Пока что зеленые все еще догоняют. Хотя, если они таки смогут добиться в реальности рекомендованной цены на 480 менее $500… Впрочем, рекомендованная для 5870 тоже $600, а реальная — $850. Так что поздравляем — нвидия умудрилась выпустить новое поколение на пол года позже, и оно ни в чем не превосходит конкурентов.

И на двухчиповик я бы не особо рассчитывал — у 5870 TDP меньше 190 Вт, и то едва смогли впихнуть двухчиповик в рамки 300 Вт. А с 250 Вт у 480 двухчиповик будет в лучшем случае иметь все 400 Вт, это ни в какие ворота не лезет. К тому же, стоит ждать удешевления 5970 после появления конкурента.

Плюс к тому пока представлен только high-end, а массовую прибыль получают с мейнстрима, который плотно забит пятитысячниками AMD. Так что — epic fail. Особенно если AMD не будет спать и к концу 2010 подготовит новое поколение, по идее это вполне реально.

Единственное реальное преимущество NVidia — сговор с игроделами с оптимизацией под них. PhysX на деле никому нафиг не нужен, а CUDA, надеюсь, будет закопана на свалке истории, ибо есть OpenCL.
AMD заявили что не будут снижать цены на продукцию.
CUDA и nVidia сделали вычислений на GPU доступными. ATI здесь просто в полной жопе. И OpenCL в зачаточном состоянии. Nvidia здесь далеко впереди. И Nvidia fermi с точки зрения вычислений — большой шаг вперёд. А рынок здесь тоже дай бог.
Минусующим я бы хотел сказать, что работаю каждый день с параллельными вычислениями на GPU. Пробовал ATI Stream, CUDA, OpenCL, DirectCompute. C уверенностью скажу, что CUDA на порядок более зрелая технология.

Если есть какие-то аргументы пишите их.
А теперь скажите, какой процент покупателей используют все эти технологии. Подозреваю что незначительный.
Если говорить про обычных пользователей, то сейчас вычисления на GPU постепенно включаются по многие разработки: работа с видео/аудио, кодирование данных, работа с графикой (Abode CS5 например).

Сейчас часть функционала СУБД переносят на GPU. Недавно читал про перенос части SQLite на GPU с помощью CUDA. Прирост 70х не на самых топовых карточках.

Ну про разные HPC я и не говорю. Кластеры, рендеринг-фермы, научные задачи. Это всё очень большие деньги и здесь nVidia преуспела очень серьёзно.

Ну это опять же по большей части не обычные пользователи. Впрочем, посмотрим, что будет с OpenCL.
Абсолютно согласен. На рынке GPU вычислений, для научных расчетов, GPU рендера и тд ATI на данный момент не конкурент Nvidia. Большая часть пакетов для 3d, в которых реализованно GPU ускорение работают только с CUDA и либо совсем, либо частично поддерживают решения ATI. Nvidia поставила на разработчиков под CUDA, развитие, рекламу и продвижение. Нафиг нужны карты более хорошие карты ATI, если под них нет софта? Например, для того же Аватара Weta сделали совместно с Nvidia PantaRay, с помощью которого делались предварительные вычисления.
Опечатался: либо совсем, либо частично не поддерживют.
Знакомый говорит, что прикручивать физекс и писать под него — крайне сомнительное удовольствие, если б не платили 2 штуки баксов в месяц — он бы с ним не трахался.
Результаты разгона бы посмотреть. Хотя при таком TDP вряд-ли получится выжать из Fermi что-то стоящее, разве что с водяным охлаждением или фреонкой.
Анонс только на бумаге, когда появится товар в реальной продаже — непонятно.
Карточки получились очень шумными и горячими, а цена (даже рекомендуемая, а не реальная) непомерно завышена.
Преимущество по скорости весьма неубедительное, особенно если учесть что Radeon 6 серии выйдет уже довольно скоро.
Так что — Epic Fail
Ну для NVIDIA GeForce GTX 480 и GTX 470 цены вполне реальны 499 и 349 $. Если источник не ошибается.
Sign up to leave a comment.