All streams
Search
Write a publication
Pull to refresh
3
0.1
Виктор Дручинин @Viknet

User

Send message
Вы сравниваете потребление только GPU с потреблением всего ноутбука с GeForce GTX 2060.

Нет, этого я не делаю. Цифры 100-180 Вт я признал ошибочными в прошлом же ответе.


Условная мобильная GeForce GTX 3060, которую должны анонсировать через две недели будет ещё в 1.5 раза производительнее при схожем энергопотреблении.

И это тоже будут (когда-нибудь) ноутбуки другого класса, для людей с другими требованиями к автономности (и нагреву).


Это я к тому, что для тех кому нужна производительность устройства на М1 в принципе не нужны.

Смотря какая производительность. Монтировать 4k-видео без лагов и шума вентиляторов уже хватает, чего нельзя сказать ни про какую другую встройку.
А для тех, кому нужно больше, девайсы ещё просто не обновились — M1 для самых младших моделей.


Что касается ультрабуков, то есть Razer Book 13, который обеспечивает схожие потребительские качества и при этом не имеет проблем с софтом.

Потребительские качества у него куда хуже, это даже любители Razer признают.

Да, это несколько больше 10 Вт, о которых вы говорите.

Я говорю про потребление именно GPU.


Что касается значений от 100 до 185 Вт — то это максимальные значения для всего ноутбука. В среднем там около 121-147 Вт под нагрузкой.

Да, то что это не только GPU, мне было непонятно из графиков. Можем принять "бумажный" TDP от NVidia — 80-90 Вт. Что и составляет почти порядок разницы с M1 GPU.


Уровень производительности старенькой 2060 в играх, задачах машинного обучения и обработки видео в несколько раз выше чем у М1.

Потому что M1 сделан для холодных ультрабуков, которым надо долго работать от батарейки. И в этой нише он сейчас не имеет конкурентов по производительности.
То, что его вообще начали сравнивать с дискретными видеокартами и десктопными процессорами с кардинально другими энергобюджетами — уже должно о чём-то говорить.


Что касается мобильных видеокарт Ampere, то они будут анонсированы в начале января.

Когда появятся в продаже — тогда будет иметь какой-то смысл сравнивать. А пока есть то что есть.

Видеокарты Turing были представлены более двух лет назад. 2060 по меркам нынешнего поколения Ampere — это карта начального уровня.

И ничего новее пока в ноутбуках нет. Только ещё более мощное и жручее, того же поколения.


По поводу разницы энергопотребления, то для всего ноутбука она примерно соответствует разнице в производительности — около 30 Вт у Apple против около 92 Вт у Asus G14 с 4900HS + 2060.

Скорее, 150 vs 30 для этих ноутбуков. image
И сама карта может потреблять от 100 до 185 Вт в пике, в зависимости от нагрузки и конфигурации питания ноутбука.
GPU в M1 потребляет 10 Вт под нагрузкой.

Производительные и энергоэффективные ядра соответственно.

Да не вопрос. Но я уверен, что это далеко не оптимальный вариант — я просто сделал кальку с sse версии, используя те инструкции, что нашёл, не пытаясь подбирать количество линий в итерации, высчитывать такты инструкций и т.д.
Ну и собирал я всё под clang — gcc под m1 пока нет — поэтому может потребоваться немного напильника.

Ну я взял и написал: https://github.com/Viknet/counting-chars/tree/neon
Сразу скажу, что до этого ничего никогда с векторными инструкциями не делал, выдал то, что изучил за вечер.


Из интересных результатов:


  • наивная версия x86 через rosetta работает слегка быстрее нативной arm64;
  • SSE4.2 версия под rosetta похоже не смогла оттранслировать эти инструкции, и делает эмуляцию;
  • на x86 наивная версия автовекторизированная clang -O3 с AVX работает быстрее, чем написанная вручную SSE4.2;
  • на arm64 -O3 ничего не автовекторизируется, и вообще не ускоряется относительно -O2 при любых флагах и модификаторах архитектуры;
  • ускорение arm64_Naive — NEON примерно такое же, как x86_Naive — AVX.

Спасибо за редкий пример, где разработчики просто забили на совместимость внутри x86 мира. Такое ещё бывает с некоторыми играми.
Пользователям свежих гибридных Lakefield (а также последних Pentium Silver, и всех Atom), наверное, очень обидно.

Если рассматривать систему в целом, то ноутбук с весьма старой по нынешним меркам видеокартой GeForce GTX 2060 кодирует видео примерно в 3 раза быстрее в Premier Pro:

Лихо вы новейшее поколение доступных в ноутбуках карточек записали в "весьма старые по нынешним меркам", и проигнорировали тот факт, что сравнивается дискретная карта со встроенной, при разнице энергопотребления почти на порядок.
Так-то встройка из M1 даже в этих неоптимизированных приложениях выглядит эпическим вином для холодного ультрабука.

К слову, из-за этого некоторые программы не работают через Rosetta 2

Из-за этого никакие приложения не ломаются. Далеко не все x86 CPU имеют поддержку AVX, поэтому абсолютно все приложения делают фолбеки.


Стоит также упомянуть, что эти инструкции придумали не просто так, они позволяют достичь куда большей производительности на современных x86 процессорах.

А на ARM придумали другие инструкции, и их никакие из этих "тестов" не используют.
В случае с FLAC хорошо видно, что там есть фоллбек с AVX на SSE, а вот веток с NEON/AMX нет, поэтому через Rosetta производительность в несколько раз выше, чем в нативно-собранной версии.


Что касается самих тестов, то они вполне объективны.

Они объективно меряют запуск конкретных неадаптированных приложений под транслятором. К сравнению производительности CPU это не имеет отношения.
Из тех приложений, которыми я пользуюсь, остался непортированным только торрент-клиент, который я не хочу на бету обновлять по отдельным причинам, и Sublime Text, в котором я не знаю, где искать тормоза.


Никого ведь не смущает тот факт, что Geekbench оптимизирован под ARM.

Вас не смущает, что там даже Geekbench запускается x86 версия под Rosetta, когда ARM версия была готова ещё до поставки реальных устройств?

Это у них считается разными "базовыми моделями", хотя различие, не устраняемое конфигуратором, есть только в GPU у Air. Маркетинговые заморочки.
А цены на технику Apple в России действительно немного безумные, тут сложно спорить.

Ну тогда 16 гигов оперативы давайте… а, их в РФ не заявлено на сайте эпла, максимум 8/512

Это неправда. Выбираете модель и дальше настраивается всё.

Вы продолжаете смотреть на мусорные данные и тешить свой Confirmation Bias.

Selenium и сам не портирован, и браузерные движки там под x86.
FLAC и Kvazaar — энкодеры, вручную затюненные с использованием AVX для максимальной производительности на x86 — под ARM никто их даже не пытался никак оптимизировать.
Про остальное мне лень смотреть, но думаю там похожая ситуация.

Это вообще нельзя назвать сравнением CPU, тем более делать какие-то выводы о производительности.
Да, там почти всё запускается через Rosetta 2.

Всегда останутся люди, которые продолжат выискивать всё более экзотические бенчмарки и «объяснения», почему x86 всё ещё «топ».
Оставьте вы их в покое. Время рассудит.

Не надо верить всему, что пишут в интернете: https://twitter.com/andreif7/status/1334862926218457090


CoreMark — это довольно примитивный набор тестов, предназначенный, в первую очередь, для оценки микроконтроллеров, поэтому не делает никаких попыток оценки производительности внеочередного и спекулятивного исполнения, качества бранч-предиктора, скорости и размера кэшей, задержек и пропускной способности памяти — в общем всего того, что делает современные процессоры во много раз быстрее какого-нибудь P4 на той же частоте.

Это было бы справедливо, если бы они купили ядро готовое. Ampere имеет свою собственную микроархитектуру.

Вообще-то они именно купили готовое ядро Neoverse-N1 у ARM, то же, что и у Amazon в Graviton 2.

И там же сказано, что достаточно выключить сглаживание шрифтов (библиотека сглаживания не портирована ещё). На экране Macbook или на внешнем 4k мониторе вполне комфортно работается без сглаживания.


Я сейчас использую этот EAP, и он работает на Mac Mini M1 ощутимо отзывчивей, чем на рабочем MBP15 2017 (i7-7700HQ) и домашнем десктопе (i5-6600k).

В linux ядре нет стабильного ABI для драйверов, поэтому они собираются производителем под конкретную версию ядра, иногда ещё и со своими патчами.

Про стандарт с открытым лицензированием, которым можно свободно пользоваться без отчислений в странах, признающих патенты на программные алгоритмы.

… пока у тебя нет патентных споров с Google.
Но да, само по себе отсутствие поддержки аппаратного декодирования VP9 в ОС и драйверах — неприятное ограничение Apple устройств.

Это очень смешно, когда мы говорим об Apple, которая вечно со всеми воюет и посылает видео в любом формате, отличном от Единого Одобренного Главной Корпораций Формата в программный декодер

Это вы про VP9, формат разработанный, запатентованный и продвигаемый одной "корпорацией добра" через один свой сайт? Потому что весь остальной интернет отлично работал с индустриальным стандартом h.264 и пережил переход на h.265.


Вот вы и сами разоблачили marketing bullshit: оказывается в практичном ноутбуке, есть что-то важное для энергосбережения, кроме процессора.

Пока что булшит несёте вы. Тред начался с вопроса про чип.

Нет, это конкретные измерения энергопотребления процессора.


воспроизведение видео 13-15 часов

Вообще не загружает процессор. Тут потребление экрана влияет гораздо больше, чем весь остальной ноутбук.

Information

Rating
4,090-th
Location
Санкт-Петербург, Санкт-Петербург и область, Россия
Date of birth
Registered
Activity