Pull to refresh

Comments 26

Почему у Nvidia мало опыта в arm? А что с процессорами Tegra не так?

Отмаза: все ниже - исключительно мое мнение и оно точно не мейнстримное.

C Tegra все так. Просто это очень нишевый продукт. Да, ниша это модная и популярная, но...

Tegra, как и Atom от Intel, никак не прижились в мобильниках. Робкие попытки отдельных производителей выпустить телефон с ними заканчивались фиаско. Примерно тем же результатом всегда заканчивалась и эпопея с нетбуками, смартбуками, и прочими планшетами. Да, многие с трепетом вспоминают Toshiba AC-100 через пять лет после выпуска, когда наконец-то на нем получилось что-то сделать - но это один из лучших примеров. Остальные примерно никакие и всегда ограничивались громким пресс-релизом и тихим пшиком на выходе. За подробностями просто погуглите отзывы на продукты или вспомните свой опыт (если таковой был).

По ряду причин решения от NVidia не подходят и для промышленной эксплуатации. Для этих целей они традиционно местами сильно избыточны, а в других сильно недостаточны. Да и не интересен был промышленный мир NVidia. Их интересовала коммерческая электроника с серьезными оборотами и изрядной долей маркетинга.

Считать ли это все богатым опытом в работе с Arm'ами? Даже не знаю. Опыт ошибочных решений безусловно есть. Как есть и нишевый опыт удачных. Значит ли он что-то в сравнении с конкурентами? Ну это, наверное, знают только в самой NVidia.

Справедливости ради, это немного не тот опыт.

Приставка, это очень закрытый мирок с очень ограниченным набором аппаратного обеспечения и системного софта с которым взаимодействовал чип Нвидии и их драйверы.

Для успеха на рынке ноутбуков и прочих ПК нужно обеспечить взаимодействие с огромным количеством разнообразного харда и операционных систем. Более того, драйвера нужно выпускать многие годы после выхода продукта и продолжать поддерживать после ухода продукта с конвеера.

В стиле телефонного мира - выпустить процессор с закрытыми драйверами прибитыми гвоздями к единственной версии криво патченого ядра линукс - тут не прокатит.

Это я к тому, что вхождение производителя процессоров в мир ПК ограничено сегодня не столько умением сделать железо, а его умением сделать поддержку этого железа софтом, причём долговременную.

Пока у пользователей опыт с "альтернативным" железом скорее отрицательный. Всякие ARM планшеты под Windows RT были и поддерживались печально недолго. Попытку Intel внедрить "телефонный" GPU от PowerVR и его печальные драйверы тоже все помнят.

Так что, по крайней мере по началу, отношение будет весьма скептическим. Никто не хочет устройство превращающееся в тыкву через пару лет.

Конечно у AMD и Nvidia есть большой опыт в плане железа для ПК и драйверов, что вызывает надежду, но ничего не гарантирует. Глядя например, на то с каким трудом Интел (со всем его опытом) рожает дискретные видеокарты (имея основные проблемы именно с софтом НЯП).

Ну давайте я еще немного допишу. А поставил плюс комментарию про Switch.

Действительно, вспомнить Toshiba AC-100, но при этом забыть Nintendo Switch - было несколько неправильно. Но, справедливости ради - у Nvidia была (и есть?) своя собственная консоль - Nvidia Shield с куда как более скромными результатами. А вот была бы Nintendo Switch более успешной с другим чипом - это вопрос. История не знает сослагательного наклонения, потому я оставлю его висящим в воздухе.

Что до состояния дел "вообще", то тут ситуация примерно следующая. Производитель процессора, помимо самого процессора, всегда делает референсную плату и референсный софт. Все это, как правило на условиях формальной NDA, раздается производителям конечных изделий. Базируясь на этом референсе производитель запускают свои линейки с разными датчиками, дисплеями, камерами - всем тем, что можно поправит на уровне платформы, ACPI, DTB, в крайнем случае добавить драйвер. И, естественно, гарантируем поддержку некоторое время. В зависимости от степени "коммерции" от трех до двадцати пяти лет. И сама NVidia так делает применительно к видеочипам. А вот со своими ARM'амим она поступает несколько по другому, сильно фильтруя тех, кому эта информация будет предоставлена. И NDA у них далеко не так формальна. Складывается ощущение, что она высматривала заказчиков не на широком рынке (больше произведут - больше продадим), а в конкретных областях. И, на самом деле, главные опасения от покупки NVidia ARM'ов были именно в том, что данный подход будет применен вообще ко всем производителям, лицензирующим ядра.

Я не знаю чем думают менеджеры NVidia. Мне их колокольня недоступна. Но то, что по количеству продаваемых "на сторону" процессоров NVidia точно не догоняет Qualcom (и скорее всего Mediatek) - это наверняка. Да и "монстры промышленности", такие как Marvell, Freescale/NXP, ST Microelectronics и прочие Amlogic'и и Allwinner'ы вместе с Rockhip'ами именно в этой части обходят NVidia - конечно не факт. Но мне, почему-то, кажется что дело обстоит именно так.

Как вспоминаю, их серия тегра казалась избыточной, рядовому пользователю. (Я на тот момент)

Представь в 2014 году, когда даже не было нормальных приложений для андроида, выпускать монстра который раз в 15 производительные конкурентов. И стоили эти решения прилично. А вот за что ты собственно деньги платил - не понятно. Ибо все эти звонилки/планшеты были ни рыба ни мясо. (Их планшет прикольно выглядел, и была реклама что там халф лайф2 портировали, на этом всё)

Как итог они свалили с рынка и начал заниматься "интегрированными решениями" вида - мы вам платформу 5Вт/1Тфлопс а вы сами думайте чо с этим делать, но желательно массово иначе не продадим.

"то чипы на её базе получаются весьма производительные плюс энергии потребляют меньше, чем x86-решения."

Вот как выглядят "весьма производительные" чипы в тестах. По потреблению энергию м2 конечно же далеко впереди, но по перфу пока проигрывает. И, возможно, если это самое "пока" попробуют исправить то и энергопотребление может подрасти. Тест синебенч это конечно специфичная задача, но других прямых сравнений сходу не нашел, мне интересно было бы сравнить время компиляции, но сравнить его достаточно сложно, если взять visual studio и xcode получится сравнение компиляторов, а это не то что хотелось бы.

gcc или clang можете попробовать

А нормально сравнивать топовый десктопный чип с чипом для ноутбуков? Очевидно, что M2 обходит по производительности большинство x86-процессоров. Да, на бумаге и в каких-то специфичных задачах, отдельные x86-чипы мощнее, но тенденция на лицо.

Из своей практики могу привести такой пример:

У меня Ryzen 9 5950X + ssd samsung 970pro. Винда 11. Проект в Android Studio компилируется 1м 54сек.

У коллеги Macbook на M2. МакОС, Android Studio. Этот же проект компилируется 1м 40сек.

Это не синтетический тест, а просто тупо ежедневный рабочий процесс.

У меня огромный черный ящик под столом, который нехило подогревает ноги. У него мелкий кусок алюминия с экраном. Бесит такой расклад...

А где узкое горлышко? Полностью процессор загружается? Сможет ли комп на Ryzen параллельно 3 проекта с той же скоростью скомпилировать?

Не понял.
Нет, понял многое до момента - Бесит такой расклад

Не можешь отжать у коллеги Macbook на M2?
Тогда купи, чего бесится из-за ничего.

Нормально, не очевидно. Сколько этот м2 потребляет чтобы показать результат, допустим, как на скрине выше по треду? Для того чтобы сопоставимое число набрать десктопным цпу вполне можно уместиться в ноутбучный теплопакет

Попробуйте такой же тест провернуть установив на свой компьютер линукс, где-то читал что у виндовса медленно происходит оперировать объектами ядра ос, открывать мьютексы, файловые дескрипторы. Я же говорю чисто в лоб сравнивать процессоры сложно, получается или сравнение ос или сравнение компиляторов. Что бы сравнить прям чисто процессор нужно брать синтетику, синебенч это чистая синтетика, но потом получается как у вас. У меня то же такой пример, проект на с++, на виндовс сборка 5 минут, на маке 1:30, но это больше говорит о том что кланг работает быстрее чем компилятор микрософт.

Еще важен момент, что м2 опережает ваш процессор на поколение, м1 корректно сравнивать с 5950х, а м2 корректно сравнивать с 7950х, у м2 и 7950х более менее одинаковое время релиза и одинаковый техпроцесс.

У меня есть стойкое чувство что определяющим фактором является не архитектура, а техпроцесс и тепловой пакет, все остальное будет давать проценты разницы. х86 процессоры можно упрекнуть что они делают двойную работу, им нужно большие команды разбивать на маленькие, за арм процессор это делает компилятор. Битва команд процессоров была важна в 70х-80х, когда действительно писали на ассемблере и большие команды(скорее подходящее слово комплексные) были банальным удобством программиста, кому захочется писать 5 команд когда можно написать одну. Тогда х86 победил арм, сейчас выходит что у арм процессора всегда будет один блок проще, а значит он будет меньше транзисторного бюджета использовать и меньше потреблять. Насколько большая работа по разбивке комплексных команд на мелкие я не знаю, насколько она много потребляет энергии и занимает транзисторного бюджета то же, но такой аргумент в против х86 привести можно.

Сразу же прикладывайте графики затраченной мощности. Как можно сравнивать 20вт TDP против 120вт. И тем более, что это цифры на бумажке, в реальности они скорее всего совсем другие.

Очевидно же, что в этом случае выигрывает м2. А если ему поднять TDP до 120 вт, кто выиграет?

И тем более разные архитектуры. А что вы не сравниваете квантовые компьютеры с 4004?

А ты несмасштабируешь так М2. Никак.

Не совсем понятен ваш агрессивный коммент в мою сторону. Я бы приложил графки потребления, если бы они были, но в своем посте четко обозначил эту тему. "По потреблению энергию м2 конечно же далеко впереди".

"А если ему поднять TDP до 120 вт, кто выиграет?"

В этом вопросе и заключается мой комментарий, который критикует тезис в статье, о том что архитектура арм принципиально выигрывает у х86. Только отталкиваюсь от производительности, именно последние проценты перфа раздувают энергопотребление процессора и превращают его в печку. В этом и вопрос, какое будет энергопотребление условного м2' если его по перф на существующем техпроцессе увеличить на те самые 25% на которые он отстает, если мы говорим про одно ядро и 160% если говорим про все ядра. Не выйдет ли так что энергопотребление примерно одинаковое получится с х86.

Мне кажется что качество процессора, что бы не скрывалось под словом "качество" определяет техпроцесс, транзисторный бюджет и лимиты энергопотребления, а архитектура, если она не имеет значительных ошибок в реализации, в последнею очередь. Переход апл на арм, на мой взгляд, обусловлен не причинами превосходства арм над х86, а другими:

экономическими - закупать чужой процессор дороже чем делать свой

гибкостью в разработке - свои процессор можно наделить дополнительными блоками под определенные задачи, безопасность, распознавание образов и прочее, что эпл периодически делает для айфона.

большей независимостью выстраивать бизнес процессы, не надо ждать релиза интел новых процессоров, можно делать ровно такие процессоры какие нужны апл, а не договариваться о этом с интел.

То же самое касается и нвидии. амд уверено выступает и на рынке видеокарт и на рынке процессоров, интел был только на рынке процессоров, но с недавних пор штурмуют рынок видеокарт, нвидия живет только на рынке видеокарт, и не имеет выхода на рынок процессоров, х86 для них закрыт, никто не продаст лицензию, остается только арм, выпуск своих процессоров позволит на равных конкурировать с амд и интел по охвату сегментов рынка.

Мне как пользователю нравится конкуренция арм против х86, конкуренция четырех компаний на всех сегментах рынка против конкуренции пары компаний, но как с++ программисту добавление еще одной архитектуры это конечно тот еще геморрой, то какие-то нужные библиотеки имеют в себе асемблерные куски и не портированы под арм, то непойми как CI настроить на кросскомпиляцию.

Не стоит так критично относиться к моим комментариям. Просто мне непонятна шумиха насчет М2. Да, быстрый, да АРМ, Зачем сравнивать с Ryzen? Snap 8 Gen3 с 12xxx никто же не сравнивает? И Snap и M2 мобильные процессоры. Соответственно там как раз и ТДП мобильный. Мне непонятно, чего они десктопные или серверные версии не делают с нормальным TDP, раз уж пошел курс на АРМизацию.

А насчет компоновки процессоров... Ну АМД собирает процессор из нескольких. Интел пихают графику. Никто не мешает им засунуть туда тензоры или еще что то. Но интел слишком консервативна, чтобы так делать. А огрызки делают процессор для себя, потому что сами пишут софт. Интел видимо боится отсутствия поддержки программистов.

Шумиха, думаю, в следствие новизны подхода, первые кто сделал десктопный арм в массы. Мне то же непонятна шумиха вокруг десктопных арм процов. У эпла хорошие процессоры получились, но думаю не потому что арм, а потому что эпл их делал.

"Зачем сравнивать с Ryzen?" Сравнивать больше не с чем, назвался десктопным процом сравнивайся с десктопом. Про и Макс это процы для ноутов, наверно их сравнивать надо с Райзен для ноутов, а вот Ультра это чисто десктопный проц. А зачем сравнивать, а как еще разобраться в вопросе. Условно у меня устаревает компьютер, возникает вопрос, что лучше собрать х86, или купить мак студио, или может ноутбука хватит с подключением внешнего монитора и переферии, лично для меня вопрос так стоит. Условные $3,5к за апловский ноут звучит много, но у меня текущий комп вообще ни разу не дешевле был, а может и дороже, думаю цифра ближе к $4.5к(одна 4090 с блоком питания больше $2.5). Пришлось немало сил приложить что бы комп был тихим, но печка еще та, зимой хорошо, летом реально кондиционер приходится посильнее включать. 600-700Вт в при нагрузке на проц и видяху это нормально.

Пока м2 Ультра выглядит нормально относительно топовых Райзен, но если брать Тредриперы, м2 начинает проигрывать.

У меня далеко не рядовые запросы, пишут с++ код примерно 5-8 часов в день, хочется что бы все происходило настолько быстро насколько оно может быть, поэтому приходится откидывать существенные деньги на железо, каждый раз плачУ и плАчу, но потом оно себя оправдывает. Задержки на компиляцию минимальные, даже полные ребилды, не успеваешь из мысли выйти. Помню времена когда рядовой проект мог собираться 10 минут, вот это да, уже забыл что делал пока сборку дождался.

С производительностью в живых задачах все примерно так же.

Ну не обманешь физику. Упрощенно говоря, чтобы умножить 1000 чисел за 1 с, нужно затратить 1 Вт, вследствие чего выделится 1 Дж энергии. Все остальные модернизации-оптимизации толкутся вокруг этой несложной пропорции. Кто-то пытается уложиться в полсекунды, платя за это двумя ваттами. Кто-то в погоне за 0.5Вт и 0.5Дж тепла умножает 1000 чисел за 2 с. Кто-то вообще внедряет аппаратный блок умножения, который тратит на 1000 чисел за 1 с, каких-нибудь 0.005Вт, но поскольку у десктопа задач полно, то под каждый чих приходится заводить свой аппаратный блок.

Apple пошла по простому пути, который стал возможен лишь благодаря изначальной концепции устройств "мы не производительные, мы красивые": скомбинировать высокопроизводительные блоки с энергоэффективными, приправив все это близким расположением ОЗУ для минимизации задержек, и в принципе фокус удался. Для большинства задач подобных написанию этого комментария, вполне хватает если не i386\33, то i486\66 уж точно, и подобный блок современного процессора, будет потреблять 5-7 Вт. Стоит включить 4K-кинцо на фон - включится аппаратный декодер, который тоже будет потреблять не шибко много.

Плюс достаточно дикая оптимизация их ОС с учетом особенностей их узкого спектра оборудования, в частности шедулеров, да и в принципе софта который приучают сидеть в IDLE когда он на заднем фоне.

А вот стоит выйти за рамки концепции, например нагрузив устройство задачами характерными для нашего обычного десктопа - уже упс. Стало греться. Упало в троттлинг. Аккумулятор стал садиться быстрее.

Ну или же поставив вместо макоси какой-нибудь арчик.

В общем к чему я это все сказал.

Молодцы ? Да.

Взлетело ? В узком диапазоне, да, как болид, который быстро гоняет, но только в ограниченных условиях.

Но что-то сверхвыдающегося ни в ARM в целом, ни у Apple в частности - нет.

Вот циферки(вы их любите, судя по тому как от потолка посчитали потребляемую мощность), в вполне себе не узком сценарии - https://habr.com/ru/articles/531006/. И эти циферки говорят что все же m1 обманул вашу физику. Просто попробуйте хоть раз m1 pro, и вы удивитесь, что он может 5 часов подряд от батареи заменять полноценную рабочую станцию в 99% сценариев.

М1 и м2 надо сравнивать с ноутбучными процами. 6800h и 7800.

В первую очередь арм хорош для ноутов.

Прикол такой, что-ли? На m1 pro можно девелопить 5 часов без подзарядки на скорости света сидя где угодно, и это в пассивном режиме охлаждения.

Для справочки - https://habr.com/ru/articles/531006/.

Представляю, что с этого чипа можно выжать, если поднять tdp до "интеловских" 100 ватт.

Оценив достоинства ARM-архитектуры, AMD и Nvidia решили присоединиться к тем производителям процессоров, которые уже работают с ARM. При этом опыта работы с этой архитектурой у обеих компаний очень мало.

Зачем вы намеренно дезинформируете?

Если не знаете ничего по теме, ну почитайте хотя бы википедию.

Первый ARM процессор, Tegra APX 2500, Nvidia сделала в 2008г.

https://ru.wikipedia.org/wiki/Nvidia_Tegra#Tegra_APX_2500

Nvidia Denver (2018) это была первая микроархитектура ARM, которую Nvidia разработала самостоятельно, хотя сейчас они предпочитают использовать покупные ядра.

Забавно, что изначально это был х86 VLIW процессор (а-ля Transmeta), но Intel не позволил его завершить, и в итоге его переделали под ARM.

Скоро выходит огромный серверный NVIDIA Grace Hopper Superchip.

https://www.nvidia.com/en-us/data-center/grace-hopper-superchip/

Ой как маловато опыта у Nvidia с ARM =)

AMD так же давно занимается ARM-ом.

AMD Opteron A1100 на базе ARM Cortex-A57 должен был выйти в 2014, но задержался до 2016г

https://www.servethehome.com/amd-opteron-a1100-now-released/

A1100 это по сути такой же процессор как и Baikal-M, который тоже задержался, но уже по другим причинам.

Более того, тогда же были анонсированы Skybridge (гибридный x86/ARM процессор) и K12 (который AMD делала с расчётом на Amazon).

K12 это ARM аналог Ryzen, который был отменён на финальных стадиях, потому как AMD решила сконцентрироваться на х86.

https://wccftech.com/amd-announces-20142016-roadmap-20nm-project-skybridge-k12-64bit-arm-cores-2016/

Apple проходила трижды смену платформы, а не дважды. Первым был переход с Motorola 68k на PowerPC. В этом переходе так же писался эмулятор для исполнения уже существующего софта. софта

При этом в самой Windows начиная с 2015 года есть поддержка
ARM-процессоров. Речь, конечно, о Windows 10. В Windows 11 поддержка ARM
значительно расширена.

У windows с поддержкой ARM не все однозначно - Surface Duo и Duo 2 с ARM на андроиде

Sign up to leave a comment.