Pull to refresh

Comments 48

Мне нравится, что nVidia пытается быть ближе к разработчикам. Всё что интегрируется в Visual Studio получает сщественно больше шансов быть рассмотренным.
жду недождусь того момента когда задачи просто и легко из C# будут паралелиться и обсчитываться еще и GPU…
(я вижу что в посте немного другое)
есть вроде бы несколько проектов типа Linq to Gpu
Они не официальные ведь. Да и насколько они мощны?
например напильником PFX/RF доделали бы для этого

// create the list of input variables.
var list = new List { 1, 2, 3, 4, 5 };

// create the array holding the results.
double[] results = new double[list.Count];

// loop over the list, create the square root and
// store it in the result array.
Parallel.For(0, list.Count, index =>
{
results[index] = Math.Sqrt(list[index]);
});
Подкараулит в темном уголке системника и придушит.
Ага. А самолет убьет паровоз. Уже 100 лет как убивает, но все не получается. У них разные цели и задачи, не говоря уже об архитектурных различиях
добавлю что для отладки приложения с помощью nsight вам понадобится:
либо два компа,
либо комп с двумя видеокартами (импортными), двумя мониторами (импортными) + виртуальная машина.
так как процессе отладки драйвер карты, на которой запущен код на CUDA, стопорится, соответственно картинка на мониторе не обновляется.
А вот это не гуд. Эмулятор был бы уместен как опция для отладки. Было бы как в разработке под Windows Mobile, ИМХО годная удобная схема.
Вы представляете эмулятор 216 (GTX260-2) ядерного проца на 2-8ми ядерном? Как оно работать будет?
Представляю как жуткий тормоз. Но когда отлаживаешь пошагово это не важно.
Угу, а как эмулировать процы от ати с 1600 ядрами? (5870)
Если мы говорим об эмуляторе и пошаговой отладке, то так ли важно эмулировать именно 1600? ИМХО и 100 хватит за глаза.
Ну мы же вроде многопоточность эмулируем, не?
И в чём же разница между 100 и 1600 процессорами для отладки? То есть существует ли ошибка которая проявляется на четырёхзначном количестве процессоров и не проявляется на трёхзначном? Что-то я сильно сомневаюсь.
Cкорее могут появиться проблемы с распределением нагрузки, да и у ати надо смотреть модель видеокарты и скармливать данные поблочно, а не «абы как», у той же 5870 — 5 блоков по 320 суперскалярных шейдерных процессора.
Дисбаланс по архитектуре, узкие места в иерархии памяти и ещё много чего. Это проблема не только GPU, но и CPU кластеров — не всегда можно отыграть ситуацию с багом на меньшем кол-ве ресурсов.
Да, отладка по сети — это жесть.
Когда узнал, понял, что с линукса слезать рано. Там отладка идёт в стандартном cuda-gdb в консольном режиме.
Ещё хуже, что альтернативы под макось вообще нет…
Извиняюсь за занудный вопрос, но что в данном конексте означают инпортный монитор и импортная видеокарта?
ну как же?
«Иван Валилиевич меняет профессию» не смотрели?
«все что нажито непосильным трудом — все пропало: два магнитофона импортных, две видеокамеры отечественных»
пс: у тебя случайно нет одноименного аккаунта на рсдн'е?
Там заграничные. Ну да ладно.

ПС: Есть.
хм, по-моему импортные. что то мы отошли от темы.

ПС: Muxa
Немного поправлю. Для NSight критичны 2 вещи: монитор и хост. Монитор — это программа, которая останавливает GPU-код и работает на довольно низком уровне с железом. Монитор может быть поставлен на чистую машину с WDDM осью (т.е. не ниже Vista) и нужной версией драйвера. Монитор запускает GPU-программу на той видеокарте, которая определяется в системе с нулевым индексом и которая от NVIDIA и удовлетворяет требованиям. Если NVIDIA карт 2, то 0 индекс будет у той, что старше\мощнее. К целевой видеокарте не должен быть подключен монитор (в смысле устройство отображения), а также Windows должна быть убрана галка «extend desktop on this GPU» в свойствах экрана.

Хост — это пакет из плагина к студии и SDK разработчика, может ставиться как на другую машину, так и на ту же, где стоит монитор. Для того чтобы хост работал, ему нужна своя видеокарта, причем совершенно не важно какая, может даже ATI или интегрированная Intel. Очевидно, монитор (устройство) должен быть подключен к видеокарте. Помимо такого железного требования, хост работает только с VS2008sp1, но в будущем конечно будет добавлена поддержка VS2010.

Требования виртуальной машины нет, хотя я лично использую такую конфигурацию: в машине установлена GT200 и G92, монитор физически подключен к G92, а код дебажится на GT200. На машине стоит UltraVNC server, к которому я подключаюсь и могу работать удаленно. Такое подключение бывает выигрышным при работе с проектами, в которых откомпилированный бинарник весит от 100 мб, а коннект тугой. Вместо того, чтобы по сети перекачивать бинарник после каждой перекомпиляции, я использую целевую машину как для компиляции, так и для дебага, а VNC качает картинку окна студии.
Вышесказанное подкреплено опытом отладки CUDA. Для работы с графикой некоторые ограничения могут формулироваться по-другому…
UFO just landed and posted this here
Простите, но скриншотах ничегошеньки не видно. Я так понимаю они напрямую со страницы продукта взяты и по этому такие маленькие и фиговенькие?
к сожалению, на странице продукта они такие же маленькие и фиговенькие
UFO just landed and posted this here
Это только начало) Дальше будет круче;)
UFO just landed and posted this here
У вас просто устаревшие сведения, спросите у маркетолухов они вам объяснят что между ними пропасть.
UFO just landed and posted this here
Скорее всего EOL. Устаревшие платформы изымаются из списка поддержки, чтобы уменьшить объём затрат на регрессионное тестирование.
g80 и g92, gt200 — все разные ревизии одной архитектуры. g80 — самая первая из этого поколения.
Не совсем. 8800gt 512 = 9800gt 512-1024 = GT250, и они на одном и том же g80-92, который по сути ничем, окромя частот и техпроцесса не изменился. А уже GT200b — почти вдвое отличается по количеству шейдерных процов.
UFO just landed and posted this here
Молодцы!

Хоть сильно просели по железу из-за тормозов с выпуском серии 400, по софту очень даже опережают конкурентов!

Всё-таки у AMD/ATi пока нет вменяемой альтернативы CUDA (OpenCL/DirectCompute тормозит, их собственная разработка вообще признания не получила).
Интересно, что на CUDA есть для практического применения? Из того что пользую я, кроме CoreAVC для декодирования HD пока не приходит даже на ум ничего, если не брать игры.

Можно ли где-то увидеть революционные 3Д-десктопы или БД, ускоряемые видеокартами?
Adobe Photoshop,
Folding@Home,
vReveal,
+
на офсайте есть каталог с кучей коммерческих прог
Sign up to leave a comment.

Articles