NVIDIA выпускает новый продукт для работы с параллельными вычислениями CPU и GPU

    image

    Компания NVIDIA выпускает новый коммерческий продуктNVIDIA Parallel Nsight, который представляет собой пакет инструментов интегрирующихся в Visual Studio 2008 SP1. NVIDIA Parallel Nsight предлагает инструменты для разработки параллельных приложений использующих на полную мощность возможности многоядерных процессоров и современных ускорителей GPU.

    image image 

    imageimage

    В возможности нового продукта входят:
    • мощный отладчик с возможностью просмотра тысяч параллельно исполняющихся потоков;
    • отладка кода напрямую на GPU;
    • просмотр памяти GPU напрямую в Visual Studio;
    • обнаружение утечек памяти с помощью инструмента CUDA C/C++ Memory Checker;
    • анализатор событий времени исполнения кода с захватом вызовов API, запуском ядра, обмена памятью;
    • подробная визуализация всех событий в окне Visual Studio;
    • фильтрация и сортировка событий с помощью инструментов построения отчетов;
    • профилирование CUDA с помощью счетчиков производительности GPU;
    • графические инструменты и отладчик с отладкой шейдеров HLSL прямо на GPU;
    • отладка любого графического или шейдерного приложения;
    • графический инспектор с обнаружением вызовов DirectX в реальном времени;
    • интерактивная проверка состояния конвейеров GPU, визуализация текстур, геометрии и вычислительных буферов;
    • профилировщик, который позволит определить узкие места и потребление ресурсов CPU.
    NVIDIA Parallel Nsight поддерживает видеокарты семейства GeForce 9, серий 200 и 400. Подробнее о требованиях можно узнать на этой странице.

    NVIDIA Parallel Nsight будет поставляется в двух вариантах: Standard и Professional (содержит анализатор). Пока, на время выпуска предварительной версии, для загрузки доступна версия Parallel Nsight 1.0 Professional.

    Сведения о лицензировании продукта можно найти на этой странице. Обратите внимание: участники академической программы смогут лицензировать инструмент бесплатно.

    Ожидается, что со временем инструменты получат обновление и поддержку Visual Studio 2010.

    Похожие публикации

    AdBlock похитил этот баннер, но баннеры не зубы — отрастут

    Подробнее
    Реклама

    Комментарии 48

      +8
      Мне нравится, что nVidia пытается быть ближе к разработчикам. Всё что интегрируется в Visual Studio получает сщественно больше шансов быть рассмотренным.
        0
        Ждем ответ от AMD/ATI
          +21
          ну ждите…
        +1
        жду недождусь того момента когда задачи просто и легко из C# будут паралелиться и обсчитываться еще и GPU…
        (я вижу что в посте немного другое)
          +3
          есть вроде бы несколько проектов типа Linq to Gpu
            0
            Они не официальные ведь. Да и насколько они мощны?
              0
              например напильником PFX/RF доделали бы для этого

              // create the list of input variables.
              var list = new List { 1, 2, 3, 4, 5 };

              // create the array holding the results.
              double[] results = new double[list.Count];

              // loop over the list, create the square root and
              // store it in the result array.
              Parallel.For(0, list.Count, index =>
              {
              results[index] = Math.Sqrt(list[index]);
              });
            –2
            гпу убьет цпу?
              +1
              Подкараулит в темном уголке системника и придушит.
                0
                Ага. А самолет убьет паровоз. Уже 100 лет как убивает, но все не получается. У них разные цели и задачи, не говоря уже об архитектурных различиях
                +9
                добавлю что для отладки приложения с помощью nsight вам понадобится:
                либо два компа,
                либо комп с двумя видеокартами (импортными), двумя мониторами (импортными) + виртуальная машина.
                так как процессе отладки драйвер карты, на которой запущен код на CUDA, стопорится, соответственно картинка на мониторе не обновляется.
                  +1
                  А вот это не гуд. Эмулятор был бы уместен как опция для отладки. Было бы как в разработке под Windows Mobile, ИМХО годная удобная схема.
                    0
                    Вы представляете эмулятор 216 (GTX260-2) ядерного проца на 2-8ми ядерном? Как оно работать будет?
                      +3
                      Представляю как жуткий тормоз. Но когда отлаживаешь пошагово это не важно.
                        –2
                        Угу, а как эмулировать процы от ати с 1600 ядрами? (5870)
                          +1
                          Если мы говорим об эмуляторе и пошаговой отладке, то так ли важно эмулировать именно 1600? ИМХО и 100 хватит за глаза.
                            –1
                            Ну мы же вроде многопоточность эмулируем, не?
                              +1
                              И в чём же разница между 100 и 1600 процессорами для отладки? То есть существует ли ошибка которая проявляется на четырёхзначном количестве процессоров и не проявляется на трёхзначном? Что-то я сильно сомневаюсь.
                                –1
                                Cкорее могут появиться проблемы с распределением нагрузки, да и у ати надо смотреть модель видеокарты и скармливать данные поблочно, а не «абы как», у той же 5870 — 5 блоков по 320 суперскалярных шейдерных процессора.
                                  0
                                  Дисбаланс по архитектуре, узкие места в иерархии памяти и ещё много чего. Это проблема не только GPU, но и CPU кластеров — не всегда можно отыграть ситуацию с багом на меньшем кол-ве ресурсов.
                      –3
                      Да, отладка по сети — это жесть.
                      Когда узнал, понял, что с линукса слезать рано. Там отладка идёт в стандартном cuda-gdb в консольном режиме.
                      Ещё хуже, что альтернативы под макось вообще нет…
                        +1
                        Извиняюсь за занудный вопрос, но что в данном конексте означают инпортный монитор и импортная видеокарта?
                          0
                            0
                            ну как же?
                            «Иван Валилиевич меняет профессию» не смотрели?
                            «все что нажито непосильным трудом — все пропало: два магнитофона импортных, две видеокамеры отечественных»
                            пс: у тебя случайно нет одноименного аккаунта на рсдн'е?
                              0
                              Там заграничные. Ну да ладно.

                              ПС: Есть.
                                0
                                хм, по-моему импортные. что то мы отошли от темы.

                                ПС: Muxa
                            +4
                            Немного поправлю. Для NSight критичны 2 вещи: монитор и хост. Монитор — это программа, которая останавливает GPU-код и работает на довольно низком уровне с железом. Монитор может быть поставлен на чистую машину с WDDM осью (т.е. не ниже Vista) и нужной версией драйвера. Монитор запускает GPU-программу на той видеокарте, которая определяется в системе с нулевым индексом и которая от NVIDIA и удовлетворяет требованиям. Если NVIDIA карт 2, то 0 индекс будет у той, что старше\мощнее. К целевой видеокарте не должен быть подключен монитор (в смысле устройство отображения), а также Windows должна быть убрана галка «extend desktop on this GPU» в свойствах экрана.

                            Хост — это пакет из плагина к студии и SDK разработчика, может ставиться как на другую машину, так и на ту же, где стоит монитор. Для того чтобы хост работал, ему нужна своя видеокарта, причем совершенно не важно какая, может даже ATI или интегрированная Intel. Очевидно, монитор (устройство) должен быть подключен к видеокарте. Помимо такого железного требования, хост работает только с VS2008sp1, но в будущем конечно будет добавлена поддержка VS2010.

                            Требования виртуальной машины нет, хотя я лично использую такую конфигурацию: в машине установлена GT200 и G92, монитор физически подключен к G92, а код дебажится на GT200. На машине стоит UltraVNC server, к которому я подключаюсь и могу работать удаленно. Такое подключение бывает выигрышным при работе с проектами, в которых откомпилированный бинарник весит от 100 мб, а коннект тугой. Вместо того, чтобы по сети перекачивать бинарник после каждой перекомпиляции, я использую целевую машину как для компиляции, так и для дебага, а VNC качает картинку окна студии.
                              0
                              Вышесказанное подкреплено опытом отладки CUDA. Для работы с графикой некоторые ограничения могут формулироваться по-другому…
                            • НЛО прилетело и опубликовало эту надпись здесь
                              +2
                              Простите, но скриншотах ничегошеньки не видно. Я так понимаю они напрямую со страницы продукта взяты и по этому такие маленькие и фиговенькие?
                            • НЛО прилетело и опубликовало эту надпись здесь
                                0
                                Это только начало) Дальше будет круче;)
                              • НЛО прилетело и опубликовало эту надпись здесь
                                  0
                                  У вас просто устаревшие сведения, спросите у маркетолухов они вам объяснят что между ними пропасть.
                                    0
                                    маркетинг.
                                      0
                                      Скорее всего EOL. Устаревшие платформы изымаются из списка поддержки, чтобы уменьшить объём затрат на регрессионное тестирование.
                                        +1
                                        g80 и g92, gt200 — все разные ревизии одной архитектуры. g80 — самая первая из этого поколения.
                                          +1
                                          Не совсем. 8800gt 512 = 9800gt 512-1024 = GT250, и они на одном и том же g80-92, который по сути ничем, окромя частот и техпроцесса не изменился. А уже GT200b — почти вдвое отличается по количеству шейдерных процов.
                                          • НЛО прилетело и опубликовало эту надпись здесь
                                        0
                                        Молодцы!

                                        Хоть сильно просели по железу из-за тормозов с выпуском серии 400, по софту очень даже опережают конкурентов!

                                        Всё-таки у AMD/ATi пока нет вменяемой альтернативы CUDA (OpenCL/DirectCompute тормозит, их собственная разработка вообще признания не получила).
                                          –3
                                          Новая доза от NV
                                            +1
                                            Интересно, что на CUDA есть для практического применения? Из того что пользую я, кроме CoreAVC для декодирования HD пока не приходит даже на ум ничего, если не брать игры.

                                            Можно ли где-то увидеть революционные 3Д-десктопы или БД, ускоряемые видеокартами?

                                          Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                                          Самое читаемое