Comments 48
Мне нравится, что nVidia пытается быть ближе к разработчикам. Всё что интегрируется в Visual Studio получает сщественно больше шансов быть рассмотренным.
+8
жду недождусь того момента когда задачи просто и легко из C# будут паралелиться и обсчитываться еще и GPU…
(я вижу что в посте немного другое)
(я вижу что в посте немного другое)
+1
есть вроде бы несколько проектов типа Linq to Gpu
+3
Они не официальные ведь. Да и насколько они мощны?
0
например напильником PFX/RF доделали бы для этого
// create the list of input variables.
var list = new List { 1, 2, 3, 4, 5 };
// create the array holding the results.
double[] results = new double[list.Count];
// loop over the list, create the square root and
// store it in the result array.
Parallel.For(0, list.Count, index =>
{
results[index] = Math.Sqrt(list[index]);
});
// create the list of input variables.
var list = new List { 1, 2, 3, 4, 5 };
// create the array holding the results.
double[] results = new double[list.Count];
// loop over the list, create the square root and
// store it in the result array.
Parallel.For(0, list.Count, index =>
{
results[index] = Math.Sqrt(list[index]);
});
0
гпу убьет цпу?
-2
добавлю что для отладки приложения с помощью nsight вам понадобится:
либо два компа,
либо комп с двумя видеокартами (импортными), двумя мониторами (импортными) + виртуальная машина.
так как процессе отладки драйвер карты, на которой запущен код на CUDA, стопорится, соответственно картинка на мониторе не обновляется.
либо два компа,
либо комп с двумя видеокартами (импортными), двумя мониторами (импортными) + виртуальная машина.
так как процессе отладки драйвер карты, на которой запущен код на CUDA, стопорится, соответственно картинка на мониторе не обновляется.
+9
А вот это не гуд. Эмулятор был бы уместен как опция для отладки. Было бы как в разработке под Windows Mobile, ИМХО годная удобная схема.
+1
Вы представляете эмулятор 216 (GTX260-2) ядерного проца на 2-8ми ядерном? Как оно работать будет?
0
Представляю как жуткий тормоз. Но когда отлаживаешь пошагово это не важно.
+3
Угу, а как эмулировать процы от ати с 1600 ядрами? (5870)
-2
Если мы говорим об эмуляторе и пошаговой отладке, то так ли важно эмулировать именно 1600? ИМХО и 100 хватит за глаза.
+1
Ну мы же вроде многопоточность эмулируем, не?
-1
И в чём же разница между 100 и 1600 процессорами для отладки? То есть существует ли ошибка которая проявляется на четырёхзначном количестве процессоров и не проявляется на трёхзначном? Что-то я сильно сомневаюсь.
+1
Cкорее могут появиться проблемы с распределением нагрузки, да и у ати надо смотреть модель видеокарты и скармливать данные поблочно, а не «абы как», у той же 5870 — 5 блоков по 320 суперскалярных шейдерных процессора.
-1
Дисбаланс по архитектуре, узкие места в иерархии памяти и ещё много чего. Это проблема не только GPU, но и CPU кластеров — не всегда можно отыграть ситуацию с багом на меньшем кол-ве ресурсов.
0
Да, отладка по сети — это жесть.
Когда узнал, понял, что с линукса слезать рано. Там отладка идёт в стандартном cuda-gdb в консольном режиме.
Ещё хуже, что альтернативы под макось вообще нет…
Когда узнал, понял, что с линукса слезать рано. Там отладка идёт в стандартном cuda-gdb в консольном режиме.
Ещё хуже, что альтернативы под макось вообще нет…
-3
Извиняюсь за занудный вопрос, но что в данном конексте означают инпортный монитор и импортная видеокарта?
+1
Немного поправлю. Для NSight критичны 2 вещи: монитор и хост. Монитор — это программа, которая останавливает GPU-код и работает на довольно низком уровне с железом. Монитор может быть поставлен на чистую машину с WDDM осью (т.е. не ниже Vista) и нужной версией драйвера. Монитор запускает GPU-программу на той видеокарте, которая определяется в системе с нулевым индексом и которая от NVIDIA и удовлетворяет требованиям. Если NVIDIA карт 2, то 0 индекс будет у той, что старше\мощнее. К целевой видеокарте не должен быть подключен монитор (в смысле устройство отображения), а также Windows должна быть убрана галка «extend desktop on this GPU» в свойствах экрана.
Хост — это пакет из плагина к студии и SDK разработчика, может ставиться как на другую машину, так и на ту же, где стоит монитор. Для того чтобы хост работал, ему нужна своя видеокарта, причем совершенно не важно какая, может даже ATI или интегрированная Intel. Очевидно, монитор (устройство) должен быть подключен к видеокарте. Помимо такого железного требования, хост работает только с VS2008sp1, но в будущем конечно будет добавлена поддержка VS2010.
Требования виртуальной машины нет, хотя я лично использую такую конфигурацию: в машине установлена GT200 и G92, монитор физически подключен к G92, а код дебажится на GT200. На машине стоит UltraVNC server, к которому я подключаюсь и могу работать удаленно. Такое подключение бывает выигрышным при работе с проектами, в которых откомпилированный бинарник весит от 100 мб, а коннект тугой. Вместо того, чтобы по сети перекачивать бинарник после каждой перекомпиляции, я использую целевую машину как для компиляции, так и для дебага, а VNC качает картинку окна студии.
Хост — это пакет из плагина к студии и SDK разработчика, может ставиться как на другую машину, так и на ту же, где стоит монитор. Для того чтобы хост работал, ему нужна своя видеокарта, причем совершенно не важно какая, может даже ATI или интегрированная Intel. Очевидно, монитор (устройство) должен быть подключен к видеокарте. Помимо такого железного требования, хост работает только с VS2008sp1, но в будущем конечно будет добавлена поддержка VS2010.
Требования виртуальной машины нет, хотя я лично использую такую конфигурацию: в машине установлена GT200 и G92, монитор физически подключен к G92, а код дебажится на GT200. На машине стоит UltraVNC server, к которому я подключаюсь и могу работать удаленно. Такое подключение бывает выигрышным при работе с проектами, в которых откомпилированный бинарник весит от 100 мб, а коннект тугой. Вместо того, чтобы по сети перекачивать бинарник после каждой перекомпиляции, я использую целевую машину как для компиляции, так и для дебага, а VNC качает картинку окна студии.
+4
UFO just landed and posted this here
Простите, но скриншотах ничегошеньки не видно. Я так понимаю они напрямую со страницы продукта взяты и по этому такие маленькие и фиговенькие?
+2
к сожалению, на странице продукта они такие же маленькие и фиговенькие
0
Может здесь будет почетче видно:
www.youtube.com/watch?v=FLQuqXhlx40&feature=player_embedded#!
www.youtube.com/watch?v=FLQuqXhlx40&feature=player_embedded#!
0
UFO just landed and posted this here
UFO just landed and posted this here
У вас просто устаревшие сведения, спросите у маркетолухов они вам объяснят что между ними пропасть.
0
UFO just landed and posted this here
Скорее всего EOL. Устаревшие платформы изымаются из списка поддержки, чтобы уменьшить объём затрат на регрессионное тестирование.
0
g80 и g92, gt200 — все разные ревизии одной архитектуры. g80 — самая первая из этого поколения.
+1
Молодцы!
Хоть сильно просели по железу из-за тормозов с выпуском серии 400, по софту очень даже опережают конкурентов!
Всё-таки у AMD/ATi пока нет вменяемой альтернативы CUDA (OpenCL/DirectCompute тормозит, их собственная разработка вообще признания не получила).
Хоть сильно просели по железу из-за тормозов с выпуском серии 400, по софту очень даже опережают конкурентов!
Всё-таки у AMD/ATi пока нет вменяемой альтернативы CUDA (OpenCL/DirectCompute тормозит, их собственная разработка вообще признания не получила).
0
Новая доза от NV
-3
Интересно, что на CUDA есть для практического применения? Из того что пользую я, кроме CoreAVC для декодирования HD пока не приходит даже на ум ничего, если не брать игры.
Можно ли где-то увидеть революционные 3Д-десктопы или БД, ускоряемые видеокартами?
Можно ли где-то увидеть революционные 3Д-десктопы или БД, ускоряемые видеокартами?
+1
Sign up to leave a comment.
NVIDIA выпускает новый продукт для работы с параллельными вычислениями CPU и GPU