Немного поправлю. Для NSight критичны 2 вещи: монитор и хост. Монитор — это программа, которая останавливает GPU-код и работает на довольно низком уровне с железом. Монитор может быть поставлен на чистую машину с WDDM осью (т.е. не ниже Vista) и нужной версией драйвера. Монитор запускает GPU-программу на той видеокарте, которая определяется в системе с нулевым индексом и которая от NVIDIA и удовлетворяет требованиям. Если NVIDIA карт 2, то 0 индекс будет у той, что старше\мощнее. К целевой видеокарте не должен быть подключен монитор (в смысле устройство отображения), а также Windows должна быть убрана галка «extend desktop on this GPU» в свойствах экрана.
Хост — это пакет из плагина к студии и SDK разработчика, может ставиться как на другую машину, так и на ту же, где стоит монитор. Для того чтобы хост работал, ему нужна своя видеокарта, причем совершенно не важно какая, может даже ATI или интегрированная Intel. Очевидно, монитор (устройство) должен быть подключен к видеокарте. Помимо такого железного требования, хост работает только с VS2008sp1, но в будущем конечно будет добавлена поддержка VS2010.
Требования виртуальной машины нет, хотя я лично использую такую конфигурацию: в машине установлена GT200 и G92, монитор физически подключен к G92, а код дебажится на GT200. На машине стоит UltraVNC server, к которому я подключаюсь и могу работать удаленно. Такое подключение бывает выигрышным при работе с проектами, в которых откомпилированный бинарник весит от 100 мб, а коннект тугой. Вместо того, чтобы по сети перекачивать бинарник после каждой перекомпиляции, я использую целевую машину как для компиляции, так и для дебага, а VNC качает картинку окна студии.
Вот вы человек, знакомый с авторскими правами не понаслышке. За thumbnail 128х128 тоже надо платить? Получается, что да. Хорошо, а 64х64, а еще меньше? 16х16 — уже вроде нет. А где грань и как она формализуется?
Вы говорите местами правильные вещи. У меня пара мыслей по поводу ваших постов:
1. А _вам_ оно зачем надо? Я прекрасно понимаю что соблюдать авторские права нужно всегда, но лично вы как-нибудь выиграли от этого иска? (мое любопытство)
2. >Воровать учите?
Очень категоричный и риторический вопрос.
Каждый человек должен иметь свою голову на плечах и знать меру ответственности в каждой конкретной ситуации. Целью топика было показать _как_ можно улучшить презентацию или любой другой «скучный текстовый» документ при помощи картинок. Соответственно, те, для кого совет про поиск в гугле оказался в новинку, вряд ли работают в достаточно крупной компании, чтобы нанести вам какой-то ущерб типа «упущенной прибыли». И я очень сомневаюсь что школьника, который хочет сделать свою презентацию лучше, следует в первую очередь заставлять изучать лицензию каждой картинки.
3. Графика, на мой взгляд, это такой вид искусства, который пойдет вслед за аудио в public domain. Прецеденты с аудио уже созданы и все сейчас именно к этому и идет. Графика, программы — это дальше, но с этим надо мириться: всякий контент, тиражирование которого ничего не стоит, будет растиражирован.
имеется в виду что OpenCL всегда будет «наименьшим общим знаменателем» по функционалу с целью обеспечить легкость реализации на разных платформах. есть также механизм vendor-specific extensions, так что если понадобится поддерживать отдельно бранч под NVIDIA, то возвращаемся к тому, от чего бежали. Уунификация и максимальная производительность никогда не будут жить под одной крышей
Все топики и кросспосты с наличием комбинации GT300 однозначно являются бульварными. По приведенной ссылке такого названия нигде не фигурирует. Архитектура анонсирована вчера на конференции GTC. Поступление первых образцов на рынок намечено на 2010 год.
Двухуровневый цикл — это фактически и есть интеграл, который считается для дискретных переменных x и y. В дискретном пространстве интеграл становится суммой.
А как такой код дебажить? Отладочными принтами, или есть возможность сделать это поудобнее?
И как юзать плавающую точку?
Да, это пожалуй самое оригинальное извращение из всех о которых я слышал =)
К сожалению, что по ссылке я не понял. Поясните? Если что-то типа FPGA, то нет, я с этим знаком поверхностно.
На CUDA интегральное изображение считается из левого верхнего угла в правый нижний, весь процесс разбивается на стадии (слои матрицы вида i+j=C), внутри стадии пиксели считаются независимо. Соответственно, максимальное число тредов, которое можно задействовать, равно min(W,H). Возможно понадобятся атомарные операции для синхронизации стадий. Кстати, не исключаю что можно еще подумать и придумать как порвать барьер на число нитей в min(W,H).
Кстати, как человек который немного разбирается в CUDA (сидя в офисе NVIDIA, чтобы не быть голословным), утверждаю что построение интегрального изображения весьма неплохо параллелится.
Вообще, за много лет существования CPU было придумано множество алгоритмов с элементами рекурсии. Самые популярные причины возникновения рекурсии — это борьба за локальность доступа к памяти (кэш), переиспользование вычислений. Однако сейчас с появлением NVIDIA CUDA, ATI CTM (или как это у них называется теперь, увы не отслеживаю), стало модно переосмыслять алгоритмы в терминах неограниченного многоядерного масштабирования.
Впрочем, у Вас есть очень правильный посыл — можно выделить целый класс алгоритмов которые ни при каком переосмыслении не будут распараллелены.
Хост — это пакет из плагина к студии и SDK разработчика, может ставиться как на другую машину, так и на ту же, где стоит монитор. Для того чтобы хост работал, ему нужна своя видеокарта, причем совершенно не важно какая, может даже ATI или интегрированная Intel. Очевидно, монитор (устройство) должен быть подключен к видеокарте. Помимо такого железного требования, хост работает только с VS2008sp1, но в будущем конечно будет добавлена поддержка VS2010.
Требования виртуальной машины нет, хотя я лично использую такую конфигурацию: в машине установлена GT200 и G92, монитор физически подключен к G92, а код дебажится на GT200. На машине стоит UltraVNC server, к которому я подключаюсь и могу работать удаленно. Такое подключение бывает выигрышным при работе с проектами, в которых откомпилированный бинарник весит от 100 мб, а коннект тугой. Вместо того, чтобы по сети перекачивать бинарник после каждой перекомпиляции, я использую целевую машину как для компиляции, так и для дебага, а VNC качает картинку окна студии.
Это какое-то новое слово в дополненной реальности. Как насчет augmented reality?
1. А _вам_ оно зачем надо? Я прекрасно понимаю что соблюдать авторские права нужно всегда, но лично вы как-нибудь выиграли от этого иска? (мое любопытство)
2. >Воровать учите?
Очень категоричный и риторический вопрос.
Каждый человек должен иметь свою голову на плечах и знать меру ответственности в каждой конкретной ситуации. Целью топика было показать _как_ можно улучшить презентацию или любой другой «скучный текстовый» документ при помощи картинок. Соответственно, те, для кого совет про поиск в гугле оказался в новинку, вряд ли работают в достаточно крупной компании, чтобы нанести вам какой-то ущерб типа «упущенной прибыли». И я очень сомневаюсь что школьника, который хочет сделать свою презентацию лучше, следует в первую очередь заставлять изучать лицензию каждой картинки.
3. Графика, на мой взгляд, это такой вид искусства, который пойдет вслед за аудио в public domain. Прецеденты с аудио уже созданы и все сейчас именно к этому и идет. Графика, программы — это дальше, но с этим надо мириться: всякий контент, тиражирование которого ничего не стоит, будет растиражирован.
И как юзать плавающую точку?
Да, это пожалуй самое оригинальное извращение из всех о которых я слышал =)
На CUDA интегральное изображение считается из левого верхнего угла в правый нижний, весь процесс разбивается на стадии (слои матрицы вида i+j=C), внутри стадии пиксели считаются независимо. Соответственно, максимальное число тредов, которое можно задействовать, равно min(W,H). Возможно понадобятся атомарные операции для синхронизации стадий. Кстати, не исключаю что можно еще подумать и придумать как порвать барьер на число нитей в min(W,H).
Вообще, за много лет существования CPU было придумано множество алгоритмов с элементами рекурсии. Самые популярные причины возникновения рекурсии — это борьба за локальность доступа к памяти (кэш), переиспользование вычислений. Однако сейчас с появлением NVIDIA CUDA, ATI CTM (или как это у них называется теперь, увы не отслеживаю), стало модно переосмыслять алгоритмы в терминах неограниченного многоядерного масштабирования.
Впрочем, у Вас есть очень правильный посыл — можно выделить целый класс алгоритмов которые ни при каком переосмыслении не будут распараллелены.