Как стать автором
Обновить

Комментарии 14

«общей цифры производительности» — это что? Число перемолотых бит в секунду?
Надеюсь Вы имели в виду ГигаБит или ТераБит? Тогда да, а в битах меня не устраивает)
Есть алгоритм1, который на вход получает 256 бит и на выходе дает 256 бит. Он выполняется на одном процессоре за 1 секунду. На другом процессоре такой же алгоритм1 выполняется за 0.2 секунды. А на третьем процессоре другой алгоритм2 (256 на входе/выходе) выполняется за 10 секунд. Внезапно самый быстрый — третий процессор, потому что алгоритм2 содержит 1000 преобразований как в алгоритме 1. Но перемножит матрицы быстрее первый, у него специальная команда есть. Второй же будет бвыстрее всего считать графику и AES/RC4. Что надо указать в вашей «общей производительности»?
Вы затронули вопросы оптимизации под конкретную архитектуру и задачу. Это задача программиста и его программного продукта. Но как Вы оцените массово весь зоопарк на всех платформах? В качестве адекватной альтернативы нам предложили простой и изящный тест, код которого целиком уместится в кэше, а оттранслировать его возможно под всё, что имеет сишный компилятор. Никто не спорит, что компьютерная оптимизация шла и идёт по трём фронтам: железо, физика и алгоритмы. Первые два не одно и тоже, потому как ламповые компы не есть транзисторные, а транзисторы — это прошлый век в физике, посвятившей себя квантам. Я же прошу заметить о величине производительности на объём затраченной энергии.
Вы оперируете некоторой «производительностью», которая разная у разных камней на разных задачах и пытаетесь привести это к каким-то общим цифрам?
Давайте для начала подразделим «камни» на задачи, для которых они предназначены. Если я выбираю PC, то смотрю на некую среднюю величину производительности, измеренную популярными тестами в баллах, процентах от неких эталонов прошлого, в конце концов я могу замерить секундомером решение одной и той же задачи без перекомпилирования на разных машинах. Если Вы говорите о видеопроцессорах и ширине потока видеоданных, который может он способен обработать, то и рассматривайте подобные его классу «камни». Третьему же будут интересны сигнальные процессоры, и у него будут свои методики выбора лучшего. Но мне то что делать с персоналкой? Всунуть ноги без тапочек в системник и пригласить туда же кота погреться?
Тесты показывают только скорость выполнения тестового кода. На каком основании перемножение матриц, а не вычисление SHA1 — мера производительности?
Ну вот где, где к примеру в ANSYS алгоритмы, заточенные на расшифровку SHA всё время работы программы? Научный софт как раз таки и будет ворочать матрицами направо и налево.
То есть основание для выбора тестового кода — произвольное. О какой тогда объективности может идти речь?
А кто сказал, что среднестатистическая машина всегда занята только подбором паролей? И так ли донельзя оптимизирован под архитектуру программный код приложений? И выбор тестового кода вовсе на произволен.
Я только сейчас осознал, для чего навешивать на корпус светящиеся ленты — оно жутко напоминает средневековый камин, и греет так же.
Всегда для этих целей использовал www.cpubenchmark.net/ Например, так.
Теоретически, еще на nix.ru есть результаты тестов, но там мало данных.
Поступаю аналогично, если нужны просто средние по больнице попугаи — смотрю индекс в этой таблице.
Если выбирается ПК под конкретные задачи — смотрю тесты в этих задачах.
www.cpubenchmark.net очень удобен для оценки выигрыша от апгрейда, если попугаев в 3-4 раза больше- пользователь это ощутит моментально и есть смысл апгрейдить. Если всего раза в полтора-два, то может и не заметить :-)
Например удивился, что есть смысл менять старые двуядерные Pentium D 3ГГц на современные celeron 1037U 1.7ГГц, выигрыш раза в 3 в попугаях, не говоря о компактности, тишине и потреблении :-)

Оффтоп: рекомендую присмотреться к Celeron J1900 :) производительнее и холоднее
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.