Скорее не точность я не упомянул, а то, что я имел в виду целочисленные вычисления, а не вычисления с плавающей точкой. В целочисленных вычислениях (без использования float или double) Tesla не дает преимущества перед GTX (мягко говоря).
Если есть результаты тестов, сравнивающих вычисления с плавающей точкой на Tesla и GTX, то было бы интересно глянуть, оправдывает ли Tesla 5-ти кратную цену.
Я вообще смотрю на количество SP в последнюю очередь: ведь на самом деле всем правят мультипроцессоры (MP). Для GTX 680 их количество равно 16. Каждый MP может за один раз запустить на выполнение warp потоков. Так что как связаны SP с MP и размером warp — для меня до сих пор большая загадка.
Мои тесты показали, что один и тот же код (молотилка хешей) на GTX 680 работает в 1,5 раза медленней, чем на GTX 580. По мне так это epic fail. Пусть даже и энергопотребление уменьшилось.
Да я не спорю, просто на скриншоте очень хорошо совпало «На данной странице Вы можете отменить выполнение...» сверху и «Отменить» снизу. Ведь действительно неоднозначность возникает.
Однако если не включать мозг и делать все на автомате, такие «косяки» обычно не замечаешь.
Интересный подход! Но ведь в реальных проектах оптимизация часто не превышает O2, а также используется C-runtime. В таких условиях можно получить crc32 от строк на этапе компиляции?
Если есть результаты тестов, сравнивающих вычисления с плавающей точкой на Tesla и GTX, то было бы интересно глянуть, оправдывает ли Tesla 5-ти кратную цену.
Что? Глаза? А да, глаза тоже ничего. :)
явно нельзя назвать красивым и понятным решением. Уж лучше:
А вообще, комментарии перед определением метода / функции, поясняющие значение параметров — наше все. На мой взгляд.
Однако если не включать мозг и делать все на автомате, такие «косяки» обычно не замечаешь.
Велик и могуч…
первая лексема — оператор, следующие — операнды. Все остальное подсвечивается, как комментарии.