Как стать автором
Обновить

Потенциальная революция на рынке ЦП для ПК и ноутбуков: первые тесты процессора Snapdragon X Elite

Время на прочтение3 мин
Количество просмотров32K
Всего голосов 15: ↑14 и ↓1+16
Комментарии41

Комментарии 41

Судя по графикам, революцию как раз делает Apple. Но ещё не вечер!

Главное, чтобы хотя б лет через пять у нас, юзеров, были отшлифованные драйверы для видеочипа, а то знаем мы ARM'щиков...

И ещё один минус - само по себе железо на ARM принято реализовывать на SoC - System-on-a-fucking-indetachable-damned-Chip, что ставит крест на колхозных сборках от НостальжиПК и, что самое главное, RIP кастомизируемый IBM-PC и RIP нормальный конфигурируемый ATX. Враг моего врага - мой друг, так что надеюсь, что Евросоюз защитит право покупателя на кастомную IBM-PC-совместимую сборку ПК, и чипы от Qualcomm будут продаваться наряду с чипами страожилов рынка - просто как сейчас, как кусок кремния.

Революцию, наверное, и правда возглавила Apple, - но если Qualcomm сделает плоды этой революции доступными для тех, кто не может / не хочет гвоздями приколачивать себя к эппловской экосистеме, - буду очень рад. В качестве платформы для своего следующего ноута что-то такое и хотелось бы видеть, что позволит получить сочетание энергоэффективность/производительность на уровне нынешних эппловских макбуков про.

но если Qualcomm сделает плоды этой революции доступными для тех

А вот сделает ли - очень хороший вопрос. В своё время особо оптимистичные заявляли, что вот откажется Apple от дорогущих интелов - тогда заживём. Какими бы популярными макбуки не были, ARM всё ещё остаётся нишевым и брать его по цене i7/Ryzen 9 как-то не очень хочется.

Мне казалось, что вся нишевость Arm на ноутах до сих пор заключалась в том, что это или Apple, или еле живой проц (Surface X), который родные-то приложения тянет с трудом, что уж говорить об эмуляции amd64. Но вот с этими процессами уже и эмуляция должна летать, и разработчики нативные версии приложений для Arm выпускать станут пободрее.

Ну а если это даст плюс несколько часов автономной работы (а даст наверняка) при сравнимой производительности - то я готов буду и переплатить дороже i7/i9.

Полностью с вам согласен, я например не хочю покупать и использовать эпл железо я за свободное ПО, но на АРМ архитектуре нормальных производительных ноутбуков нет, или есть неплохие но они вендор лок типа Виндовс он АРМ или хромбуки, на которых линукс не установить, потому что банально дров нет для переферии. ПРодайте мне один 14 дюймов 512 SSD NVME, 16GB RAM. и Дебиан12 на борту куплю два. наконецто что то годное появится.

Главное, чтобы хотя б лет через пять у нас, юзеров, были отшлифованные драйверы для видеочипа, а то знаем мы ARM'щиков

далеко не только ARM-щиков. С amdgpu например до сих пор не поддерживается аппаратное ускорение видео в Google Chrome - есть известная проблема в юзерспейсе (chrome и mesa), и ее уже полгода никто не торопится фиксить. Про движок для ускорения нейронок, Ryzen AI, вообще молчу - для него просто нет никаких дров под Linux.

Оно, вроде, опирается на xilinx, а код для работы с ним только начали портировать в ядро.

что ставит крест на колхозных сборках от НостальжиПК и, что самое главное, RIP кастомизируемый IBM-PC и RIP нормальный конфигурируемый AT

А это под ноуты, в которых уже лет 10 как всё распаяно - зачем ПК 28-Втный процессор?.. Сейчас во многих моделях даже память не поменять. Гонка гигагерц и количества ядер добралась до финиша, а вот энергоэффективность (толщина корпуса, вес и время работы от батареи) вышло на передний план.

с одной стороны да, но с другой, вам шашечки или ехать. так можно и мейнфреймы с терминальным доступом потребовать восстановить.

Защитит, ведь это позволит меньше засорять планету, как бы не заставили выпускать ARM в гнездовом исполнении для пущей ремонтопригодности и масштабируемости. Интересно, каков будет ответ от Интел, ведь длинные рудиментарные инструкции x86 плохо умещаются под подложкой SoC.

10% производительности за 350% потребления... ну не знаю. Где-то, как обычно, набманывают (

Притом, что рядом же в тесте 28-ваттный Райзен 7840, как и положено, в синебенче в аккурат втрое уступает 75-ваттному Райзену 7945, процу того же поколения и той же архитектуры. А Снэпдрэгон - всего 20% разницы между 28Вт и 80Вт. В общем, действительно набманывают, к гадалке не ходи.

От мощности линейно зависит только разница температур.
От производительности зависимость — степенная, и +10% к частоте, бывает, достигаются +50% к потреблению.

От производительности зависимость — степенная

Нет :) Процессор - не двигатель внутреннего сгорания, его потребляемая мощность, это чуть-чуть токи утечки, но в массе своей это токи, которые идут на заряд затворов транзисторов, и на сброс этого заряда при их переключении (с тех пор, как процессоры стали делать по КМОП-технологии). В одинаковых режимах работы (т.е. при загрузке одних и тех же вычислительных блоков, при одном и том же напряжении питания и т.д. ) производительность от потребляемой мощности зависит почти линейно. Грубо говоря, два миллиона переключений дадут в два раза больше потребляемой мощности, чем один.

А то, про что вы пишете, это имеет место только в разных режимах работы, когда там на процессоре напряжение поднимают, например. В этом случае удаётся выжать ещё по частоте немного сверх номинала, но токи возрастают непропорционально больше производительности, просто за счёт закона Ома.

Ну расскажите, как линейно растет потребляемая мощность при смене профиля питания с 0.8V@0.4GHz до 1.2V@4.6Ghz, когда зависимость от одного только напряжения — квадратичная.

Если не путаю, то и токи утечки отростка напряжения подрастут

Да в том-то и штука, что толстые техпроцессы и полное отсутствие средств управления питанием остались в далеком-далеком прошлом…

Это от куда у Вас столь, непостесняюсь сказать, охренительная информация которую Вы, к тому же, подаете тут как аксиому ????

А Райзены, что, тестили в соседней реальности с другими физическими принципами, если допустить, что Вы правы?

Эта столь охренительная информация известна любому оверклокеру последние лет 30 и любому кто догадался измерить потребление системы в разных режимах последние лет 20 (кто смог купить розетку с измерителем мощности), и последние лет 70 — любому, кто изучал физику процессов в кремнии.

А кто там что и как намерил — надо спрашивать с тех, кто мерил. К бабке не ходи — или шаманили с профилями питания или сделали нечто совершенно невероятно тупое, типа сравнили Zen4 с Zen2 в рамках одной линейки. Заодно можно их спросить, как же так R9 3900 от снижения теплопакета на треть (95W ⇒ 65W) почти не теряет в производительности.

Почему-то не сравнивали с M2 Max, а только с более слабым Pro. Ну и по ваттам если судить, то M2 Pro нужно с 23W режимом сравнивать, а не с 80W

По GPU оно и M2 Pro проигрывает (но т.к. GPU нынче - это в основном нейросети, то наличие отдельного "нейронного чипа", который непонятно чем будет поддерживаться и как это всё сравнивать, всё запутывает), - а по CPU M2 Pro и M2 Max одинаковые.

А насчёт ватт - там в оригинале вот такая ремарка, из которой понятно только то, что ничего не понятно:

In addition, these 23W and 80W numbers also represent entire system system power, not the SoCs alone, which a significant data point you should make note of. Actual SoC TDPs were not disclosed.

В любом случае, дождёмся реальных ноутов с этим процем, посмотрим. Возможно, к тому времени сравнивать надо будет уже с М3, и это гораздо сильнее поменяет картину. Но даже если сходу и не догонят Apple - радует, что появилась альтернатива.

Меня просто тест Cinebench заинтересовал. Написано, что там GPU используется, но по тестам не особо это видно.

Я так понимаю, там смесь нагрузок и на CPU, и на GPU, и в таком сценарии вообще проецировать результаты теста на какие-то реальные нагрузки очень сложно.

Мда... учитывая, что М3 уже отгружают, а обсуждаемый процессор ещё обещают когда-то в следующем году, сравнивать придётся уже с М4 :) Пока что Apple хорошую фору взяли.

Впрочем, пишут, что в следующем году заканчивается действие соглашения MS с Qualcomm, согласно которому Windows на ARM может работать только на чипах последних (я был удивлён, что отсутствие Bootcamp на Apple Silicon, похоже, следствие этого соглашения, а не коварства Apple), в связи с чем на рынок Windows on ARM готовятся выйти Nvidia и AMD (!) И вот тогда уже конкуренция получится поинтереснее.

Я так понимаю синтетику запускали на ARM архитектуре, а не через виртуализацию x86_64? Пока в ПК весь софт на x86_64, эти тесты ничего не значат и бесполезны. Ну за исключением конечно Apple, где у них свой мир.

Ну "весь софт" - это преувеличение. Office родной, Visual Studio родная, от Adobe родные Photoshop и Linghtroom, остальные обещают, Autodesk традиционно тупит, но под Apple Silicon уже родили Autocad и Maya, так что лёд тронулся... Ну и главное, что опенсорс, которым в целом можно закрыть 90% применений, очевидно и под Windows on ARM собирается.

И это сейчас, когда на ARM под Windows только совсем уж low-end ноутопланшеты, на которых тяжёлый и специализированный софт никто не запускает. При появлении в массовой продаже более мощных ноутов, соответственно, и стимулов выпускать родные ARM-приложения под них будет больше. И коль скоро приложение было успешно портировано сначала с 32 бит на 64, потом с Win на Mac, а особенно - если потом ещё и на Apple Silicon, - то его портирование на Windows on Arm не должно быть особо сложной задачей.

Выпускать дорогие ARM ноутбуки под Windows это риск, готов ли пойти на него производитель, это вопрос, особенно когда нет огромного разнообразия софта, а где оно есть, уже есть Apple. Только если льготы предоставит Windows, да и сам Квалком.

П.С А чтобы произошло огромное разнообразия софта, нужно чтобы было достаточно пользователей под ARM Windows.

Дорогие хорошие Вин и Линукс ноуты с характеристиками хотя бы похожими на эппловские м1 будут с руками отрывать. Очень многие не хотят Эппл, но хотят кило с малым веса и 10 часов от батарейки. И чтоб работало быстро. Ну хотя бы не хуже текущих топовых легких х86 ноутов.

Тут вот пишут:

A number of the largest Windows PC manufacturers have now been confirmed to develop devices with the new chip. The list includes HP, Lenovo, Asus, Dell and Acer. Honor, Microsoft, Samsung and Xiaomi are also going to deliver Snapdragon X Elite-powered laptops to announce next year.

Так что, думаю, в следующем году этих ноутбуков будет примерно вагон. И MS, очевидно, первыми побегут в линейке Surface делать конкурентов Макам. По софту написал в комментарии выше - уже много чего есть (хотя железа толком нет), а чего нет нативно - то работает в режиме эмуляции, который, учитывая неслабую производительность чипов, тоже тормозить не будет.

Благодаря Эпплу под ARM64 пересобрали уже примерно все. Понятно что не под эппловский ARM вероятнее всего потребуется еще одна пересборка всего. Но второй раз пересобрать явно проще чем первый. За год мир должен справиться с такой задачей.

За софт я бы в общем не переживал. Будет нативный и быстро будет.

это на самом деле так кажется. У Apple нет-нет да где-то свои инструкции в процессоре, нет-нет да чучуть не так работает как в стандарте. Глобальный переезд на arm64 будет как в старые добрые времена DOS когда приходилось каждый софт оптимизировать под свою железку ибо у Quallcom 100% тоже где-то свои инструкции дополнительные будут + 100% у всех arm не совместимые AI ядра и т.д :C

Ну это в 99% случаев головная боль разработчиков компиляторов, а никак не софта. Много софта с ассемблерными вставками осталось?.. А все мейнстримные и изрядная доля экзотических компиляторов собирать под Windows/ARM давно умеют.

Какие-то значимые трудности могут быть именно что не с CPU, а c GPU и новым AI-сопроцессором.

Сложно было собрать под не х86 первый раз. Легаси, никто понятия не имеет что там вообще. Кросс компиляцию осваивать или все эти CI/CD на новой платформе запускать. Долго и сложно, понятно.

А второй раз то чего? Все только х86 куски кода несовместимые ни с чем уже найдены и как-то поправлены. Компилировать и тестировать под не х86 все уже умеют. Надо просто закупить нужное железо и включить его в уже готовую для него инфраструктуру третьим контуром сборки/тестирования. И конечно же решить очередные проблемы сборки под новую платформу. Куда уж без них. Вот год и выходит на все про все.

Ну не так страшно, все же Apple лицензировал у ARM систему команд и хочешь не хочешь нужно придерживатся этим командам, если и есть какие то новые команды то они очень специфические под Apple (ну там шифрование Apple T2 Security Chip который перемесли внутрь Mх процов и обработка/ускорение видео со специфическими кодеками Apple), а в основном все по стандартам ARM

Дебиан как собирался под дюжину архитектур, так и собирается.

Это клозедсорсного виндософта нет — но это проблема закрытых исходников и виндософта.

Поясните, зачем пользовательскоиу устройству обучать нейросети? AI-сопроцессор нужен серверу, а в ноуте они зачем?

Ну в принципе всё можно на сервере запускать, а ноут использовать как тонкий клиент :) Но иногда удобнее иметь возможность сделать что-то локально. Или сервера с производительным GPU в принципе нет, а какие-то разовые эксперименты хочется погонять. Опять же, кроме обучения, есть и использование нейросетей. Я вот гоняю локально на ноуте Stable Diffusion, Whisper и llamaindex. Другой вопрос, что, насколько я понимаю, даже с поддержкой Apple Silicon для этих применений всё пока не очень радужно, а когда начнёт массово поддерживаться новый AI-сопроцессор от Qualcomm, вообще непонятно.

Со стартом 14 поколения интел выпустил драйвер для старших моделей, в котором есть профили использования цпу некоторыми играми. Эти профили используются для оптимизации шедулинга и позволяют получить десятки процентов прироста в этих играх. Минус в том, что их нужно готовить заранее. С отдельной сеткой, которая будет обучаться на месте, что-то такое, по идее, можно будет получить из коробки. Эдакая автоматическая оптимизация под пользователя.

Потому что ноут достаточно производителен для этого, а раундтрип и ожидание очереди на кластере быстрых видеокарт запросто могут оказаться медленнее локальной обработки.

Это не считая того, что кластер надо еще купить или арендовать, и нужен хороший канал связи с ним, а ноут — он вот он, в поезде, в горах, в самолете — везде с собой.

Обучать незачем, использовать для вполне бытовых вещей. Распознование речи, качественный синтез речи, "улучшение" качества изображений или даже видео (для видеоконференций, например, в режиме реального времени), качественный шумодав и всякое такое прочее. Когда эти чипы будут мощнее - сможем и многоцелевые ллмки на них гонять оффлайн и без проблем с privacy.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий