Cinebench меряет производительность в одной конкретной задаче на одном конкретном "render engine". Его результат нельзя считать взвешенной оценкой производительности CPU в целом.
Плюс к нему тоже есть ряд вопросов:
1) насколько хорошо его успели портировать под M1, учитывая, что под x86 оптимизировали много лет?
2) низкая загрузка CPU на M1
Так, а в чём претензия-то тогда?
И там и тут это инструкции процессора, входящие в базовую ISA, которые используются в реальных криптографических приложениях. Тест назван Crypto. Результаты сравнимые.
И это Линус писал про GB3, с тех пор они очень хорошо поработали над сравнимостью результатов для разных платформ, и заработали хорошую репутацию. Сейчас в результатах GB5 сомневаются только те, кто не может поверить в то, что ARM в принципе может соревноваться с x86.
Серьёзно? Кучка разношёрстных кусков кода, про которые достоверно известно, что многие оптимизировались исключительно под x86, лучше, чем набор специально подобранных и предназначенных для кроссплатформенной оценки разных аспектов производительности CPU тестов (SPEC2006/2017, Geekbench)?
Про какую непредвзятость вы сейчас говорите вообще?
M1 сейчас стоит только в ультрабуках (Mac Mini — отдельный разговор) и именно для них делался.
С любым ноутбуком без Thunderbolt нельзя использовать внешний видеоускоритель. Не говоря уже о том, что ниша использования eGPU довольно узкая.
Так же, как не будет и у тысяч других ультрабуков со встройкой и без Thunderbolt.
Почему его GPU надо сравнивать именно с 2080 или 1660/1080? Эти карты в принципе не влезут в нужный энергопакет. С тем же успехом можно поставить рядом десктопную 3090 и насмехаться.
Тем временем, на рынке интегрированных GPU ничего сравнимого просто нет.
С вычетом пассивного потребления без нагрузки. Потребление CPU в телефоне иначе не замерить.
Потребление M1 в одноядерной нагрузке замеряли точно, и оно находится в тех же границах:
А в чём перл? Это CPU с интегрированной видеокартой для лёгкого ноутбука с пассивным охлаждением. Интегрированные GPU от Intel и AMD сильно слабее, поэтому, чтобы хоть с чем-то сравнить, нашли близкую по производительности дискретную карту.
к сожалению, этого недостаточно чтобы делать вывод что NE/AMX не используются — алгоритм в geekbench'е может их попросту недоутилизировать. Весьма амбициозное предположение, что высокий счет M1 в задачах машинного обучения достигнут даже без использования NE.
Чтобы использовать NE нужно специально его вызывать через API. В тестах Geekbench проверяется именно производительность CPU, а не сопроцессоров, поэтому такое оптимизации противоречили бы самой идее бенчмарка.
Ну и то, что производительность через Rosetta показывает схожие цифры (с поправкой на трансляцию) должно вас убедить: https://browser.geekbench.com/v5/cpu/4940924
В мире очень много разных ISA придумано, и ещё больше не придумано.
ARM там сейчас просто по историческим причинам, которые уходят корнями в первые чипы на iPhone, которые дизайнил ещё Самсунг.
ARMv8 очень далеко ушёл от академических измышлений об ограниченном наборе команд.
Сейчас плотность кода x86 и ARMv8 примерно одинаковая.
Cinebench меряет производительность в одной конкретной задаче на одном конкретном "render engine". Его результат нельзя считать взвешенной оценкой производительности CPU в целом.
Плюс к нему тоже есть ряд вопросов:
1) насколько хорошо его успели портировать под M1, учитывая, что под x86 оптимизировали много лет?
2) низкая загрузка CPU на M1
Справедливости ради, для JS там есть специальные инструкции :)
https://stackoverflow.com/questions/50966676/why-do-arm-chips-have-an-instruction-with-javascript-in-the-name-fjcvtzs
Так, а в чём претензия-то тогда?
И там и тут это инструкции процессора, входящие в базовую ISA, которые используются в реальных криптографических приложениях. Тест назван Crypto. Результаты сравнимые.
Сейчас вот Intel Tiger Lake даже выигрывает в этом тесте у M1, что не даёт ему большого преимущества: https://browser.geekbench.com/v5/cpu/compare/5079627?baseline=5078369
Сюрприз, на x86 теперь тоже hardware-assisted: https://en.wikipedia.org/wiki/Intel_SHA_extensions
И это Линус писал про GB3, с тех пор они очень хорошо поработали над сравнимостью результатов для разных платформ, и заработали хорошую репутацию. Сейчас в результатах GB5 сомневаются только те, кто не может поверить в то, что ARM в принципе может соревноваться с x86.
Серьёзно? Кучка разношёрстных кусков кода, про которые достоверно известно, что многие оптимизировались исключительно под x86, лучше, чем набор специально подобранных и предназначенных для кроссплатформенной оценки разных аспектов производительности CPU тестов (SPEC2006/2017, Geekbench)?
Про какую непредвзятость вы сейчас говорите вообще?
Это легко объясняется тем, что все эти тесты много лет оптимизировались под x86, включая использование ассемблерных вставок с AVX инструкциями: https://forums.anandtech.com/threads/new-apple-soc-m1-for-lower-end-macs-geekbench-5-single-core-1700.2587205/page-42#post-40361688
Под ARMv8 никто их не оптимизировал, в лучшем случае перекомпилировали "что есть", иногда получая результаты хуже, чем у x86-версии с SSE-оптимизациями через Rosetta.
M1 сейчас стоит только в ультрабуках (Mac Mini — отдельный разговор) и именно для них делался.
С любым ноутбуком без Thunderbolt нельзя использовать внешний видеоускоритель. Не говоря уже о том, что ниша использования eGPU довольно узкая.
Так же, как не будет и у тысяч других ультрабуков со встройкой и без Thunderbolt.
Почему его GPU надо сравнивать именно с 2080 или 1660/1080? Эти карты в принципе не влезут в нужный энергопакет. С тем же успехом можно поставить рядом десктопную 3090 и насмехаться.
Тем временем, на рынке интегрированных GPU ничего сравнимого просто нет.
С вычетом пассивного потребления без нагрузки. Потребление CPU в телефоне иначе не замерить.
Потребление M1 в одноядерной нагрузке замеряли точно, и оно находится в тех же границах:
А в чём перл? Это CPU с интегрированной видеокартой для лёгкого ноутбука с пассивным охлаждением. Интегрированные GPU от Intel и AMD сильно слабее, поэтому, чтобы хоть с чем-то сравнить, нашли близкую по производительности дискретную карту.
Плашку "перевод" всё-таки надо бы поставить: https://jamesallworth.medium.com/intels-disruption-is-now-complete-d4fa771f0f2c
Это производительность на одно ядро.
Если вы начнёте смотреть на реальное потребление энергии вместо бумажных TDP вас ждут интересные открытия.
Спасибо!
Cmd нажимается большим пальцем, после чего вся левая часть клавиатуры удобно доступна.
Он уже есть в новых маках, например. Скоро во всех новых компьютерах будет.
https://getutm.app
Удобная оболочка для qemu с JIT специально для iOS/iPadOS. Работает небыстро, но сильно лучше полноценную эмуляцию не сделать.
Чтобы использовать NE нужно специально его вызывать через API. В тестах Geekbench проверяется именно производительность CPU, а не сопроцессоров, поэтому такое оптимизации противоречили бы самой идее бенчмарка.
Ну и то, что производительность через Rosetta показывает схожие цифры (с поправкой на трансляцию) должно вас убедить: https://browser.geekbench.com/v5/cpu/4940924
В мире очень много разных ISA придумано, и ещё больше не придумано.
ARM там сейчас просто по историческим причинам, которые уходят корнями в первые чипы на iPhone, которые дизайнил ещё Самсунг.