Комментарии 81
бизнес модель ARM несовместима с текущей бизнес-моделью Nvidia.
плохая адаптация лицензионного бизнеса Arm к аппаратной и программной бизнес-модели Apple
различие в том что первые решили ее купить, а вторые — нет. хотя первые не используют ее решения, а вторые — используют.
первые не используют ее решенияTegra — ни о чём вам не говорит?
Tegra — это очень маленький кусочек, такая игрушка в компании NVidia.
К сожалению не могу найти никаких цифр по количеству проданных Tegra. Их количество в любом случае точно меньше как минимум на один-полтора порядка чем количество настольных и серверных чипов.
Несколько лет назад пользовался Андроид планшетом на Тегре. Конечно, там ещё Qualcomm был в качестве модема. Но система крутилась на Тегре.
Хотя, конечно, скорее всего будет, как написано в новости, и NVidia просто предоставит гарантии нейтральности для лицензирования архитектуры. Впрочем, если и так, то эта нейтральность всё равно будет крайне интересной. Скажем, что они будут делать с тем же Huawei?
Если Huawei найдет на чем выпускать свои процессоры в Китае, а ARM не лицензирует им ядра, то Huawei будет это делать без всякой оплаты за лицензирование ядер ARM, не вижу проблемы — чего еще может потерять изгой?
Пока они не могут свои процессоры выпускать из-за того что TSMC с ними перестала работать и в телефоны ставят SoC Квалком и Медиатек, в этих случаях их проблема с лицензированием ARM вообще не касается, это заботы Квалкома и Медиатека.
Я честно не понимаю этого "хайпа" вокруг RISC-V и прочих открытых ISA. Архитектурно они зачастую сильно уступают тем же ARM, MIPS и прч.(что не пришло не в голову сразу) За тем исключением когда это предписывает ТЗ конкретного устройства. (К примеру ядра открытых ISA могут потреблять мало энергии и в случае когда весь код программы умещается в пару десятков килобайт и надо просто гонять данные, они будут смотреться привлекательней чем "крупные" игроки.)
Только лишь из-за того что архитектура открыта её пытаются пропихнуть в массы? Ужасно…
Каким образом она отбросит легаси arm когда она по сути является продолжением развития mips)?
Если вы разберёте _ инструкции на такт/количество байт в коде/размер ядра, то удивитесь как ARM и даже MIPS уделывает те открытые архитектуры в этих соотношениях.
По крайней мере, так было год назад.
И единственное преимущество в железе что я помню, более низкое "динамическое" потребление энергии, и даже тут с оговорками.
Не кнш мб вы скажите что — "подумаешь разница в 20%, сейчас такие быстрые системные шины что даже не заметишь этого", но как раз эти 20% потом влезут вам боком когда вы упрётесь в этот потолок и как итог — нагрузка на ОЗУ больше, кэши больше, шина шире, кристал жирнее…
Прям свои кошмары рассказываю…
Единственное важное преимущество открытости лишь в идеии возможной безопасности путём работы сообщества.
UPD Именно ядра, ибо SoC это набор переферии, тогда все интерфейсы что там присутствуют, даже шины, должны быть open source иначе это не имеет смвсла
35-летнее легаси отброшено уже в AArch64. ARM не Intel и не втянули за собой древние команды, которые нафиг не нужны, кривые флаги и прочие нелепости.
Сравнивая ARM и RISC-V с точки зрения старого знатока ассемблера, но без опыта написания компиляторов под них, вижу следующие моменты:
RISC-V просто ещё не определён в до чёрта моментов, в основном это системные вещи, но и местами базовые типа векторных операций. Они медленно "спускаются с горы", определяя и уточняя, но скорость процесса показывает, что пока мало реально толстых игроков.
RISC-V принципиально пропускает некоторые возможные вкусности. Например, команд группы BFM нет и не предполагается пока, а они чрезвычайно удобны и эффективны для всех участников. Да, это специфический частный случай, но таких случаев может быть достаточно много.
В системной части RISC-V находится под очень сильным влиянием x86 (в первую очередь его методам страничной виртуализации памяти). По-моему, они могли бы сделать тут заметный шаг вперёд, но не хотят.
Сейчас по сути все кроме военных закрывают глаза на безопасность железа («а что мы можем поделать») в лучшем случае ограничиваясь отключением части Intel ME (и аналога от AMD), конечный пользователь практически никогда не знает что он покупает (например про работающую, но отключенную программно плюшку в его мобильной системе на кристалле), а энтузиастам приходится с боем добывать обрывки документации и тратить месяцы на реверс. Открытая архитектура может это изменить и разбавить монополистов коллаборациями одиночек, небольших компаний, институтов.
Но ведь, насколько я понимаю, RISV-V — это только ISA, а сама, так сказать, имплементация вполне есть закрытые.
1. Упростить одновременную и согласованную разработку SOC и HAL/SDK. (Из своего опыта embedded разработчика могу сказать что SOC делает кто-то как-то, не берусь оценивать насколько хорошо а вот HAL или SDK зачастую хромает).
2. Упростить создание малой серии кастомного чипа. Чтобы мы не паяли кучу микросхем на плату заказывали чип под свои задачи. Это сейчас невозможно, потому что фотолитография делается с помощью дорогих и сложных в изготовлении масок. Поэтому любой чип дешев засчет серийности, его не закажешь в мелкой серии как печатную плату.
Да не наступила бы. Конечно, архитектура "open source" (хотя позволяет создавать свои закрытые наборы инструкций, не говоря уже об IP-ядрах), но open hardware, открытые бутлоадеры или открытые прошивки без чёрных ходов никто не обещает.
Не слышал чтобы кто-то сейчас самостоятельно модифицировал стандартные ядра ARM за пределами элементарных настроек размера кэшей и т.д.
Хотя Cortex-X1 поставляется с более тонкими настройками, но это исключение.
www.anandtech.com/show/10366/arm-built-on-cortex-license
Не слышал чтобы кто-то сейчас самостоятельно модифицировал стандартные ядра ARM за пределами элементарных настроек размера кэшей и т.д.а apple? Вряд ли они обходят конкурентов на пару поколений за счет тюнинга пары настроек
Вряд ли они обходят конкурентов на пару поколений за счет тюнинга пары настроек
Вряд ли они хоть на четверть поколения обходят конкурентов. Пока что ARM-маков нет (поэтому и говорить что-то бессмысленно на их счёт), а ARM-смартфоны нельзя сравнивать в попугаях, потому что пользователю не попугаи нужны от смартфона. Отличия в ОС тоже нельзя игнорировать.
Когда двухлетний планшетный процессор под macOS в режиме эмуляции x86 показывает результат лучше, чем новый State-of-the-Art Snapdragon под Windows в нативном режиме — это именно что на пару поколений впереди: https://www.zdnet.com/article/arm-benchmarks-apple-silicon-trounces-microsofts-surface-pro-x-in-first-tests/
Бенчмарки процессоров вообще очень слабо зависят от ОС.
Ну и вот эти картинки очень показательны: https://twitter.com/slightlylate/status/1233275220275818498
«ну и вы говорите» (С) бородатый анекдот
Конечно, можно поспорить, что, дескать, важен результат, и если ARM его обеспечивает, то пусть хоть 20 сопроцессоров поставит… Но на практике это значит, что если не завезли поддержку нового видеокодека — то извините, в следующий раз. Идеально для фейсбук-машинок и запланированного устаревания.
Немного опоздали с критикой GB3, лет на 7. GB5 более разнообразный и взвешенный. Ну и лучше него сейчас бенчмарков нет.
Если же доверие к GB совсем подорвано, то можно посмотреть например на SPEC2006: https://www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/4
Что касается специализированных инструкций и блоков — это общее место для всех процессоров сейчас. Intel x86 имеет те же инструкции для AES, SHA и многого другого.
А декодировать какой-нибудь HEVC 4k60fps с хорошим битрейтом бессмысленно на любом CPU без аппаратного ускорения.
А нвидиа в данном случае будет просто пихать свои видеокарты всем как стандартную опцию.
Не слышал чтобы кто-то сейчас самостоятельно модифицировал стандартные ядра ARM за пределами элементарных настроек размера кэшей и т.д.
Та же NVidia с Tegra X2/Denver2, Tegra Xavier/Carmel там если не ошибаюсь от арм только система команд ARMv8 а чип свой.
Думаю Apple вообще все равно у них пожизненная лицензия (может еще какие договоры), да и не хотят они для других делать архитектуру.
Угу, именно поэтому они типа планируют составить конкуренцию интел и амд?ну да, так я себе это и представляю — выпустить SoC на ARM для конкуренции с x86 SoC от Intel/AMD и обойти их за счет того, что ARM перспективнее x86
Для этого не было необходимости покупать АРМ, хватило бы покупки лицензиии пытаться делать чип на новой для них архитектуре? Полагаю, квалифицированные инженеры им тоже нужны
А вот в мобильном, где уже парочка сидит ровно на тех же армах (квалком и медиатек из тех, кто для других чипы делает), а один уже не осилил (самсунг), плюс конкурировать с Эпл…у квалкома и медиатека не будет такой видюхи, да и с apple nvidia разминется — apple не собирается продавать свои чипы, а андроидам с ARM ноутбуками надо будет на чем-то работать
Отдел разработки мобильного чипа за 40 лярдов?ну схантите вы целое подразделение компании, а потом окажется что все наработки этого подразделения там же в компании и остались, плюс всякие договоры о неразглашении. В итоге вы будете начинать с теми же людьми, но с нуля.
В общем, черт знает что там nvidia нужно от ARM, но это точно что-то масштабное и в режиме ASAP.
Ага, только на размер рынка это влияет. С учётом, что в богатых странах доля Эпл в мобилках и планшетах велика, то доля прочих уменьшается.рынок не ограничивается ни богатыми странами, ни мобилками/планшетами. И даже там за эплом меньше половины рынка.
В любом случае, АРМ не производит чипы сам, не продаёт их окружающим производителям и не внедряет ихтем не менее они разрабатывают их. И если nvidia хочет делать чипы круче чем у конкурентов, лицензирующих ядра cortex, им либо А. нужно было начинать несколько лет назад, либо Б. добыть где-то кучу инженеров, разрабатывающих ARM ядра, вместе с их наработками. Купив «один из стартапов» они бы получили ровно такого же рядового пользователя cortex, каким могли бы быть и сами
Но деньги-то там приносят топовые железкину нвидии то деньги будут приносить чипы
Сейчас они купили по большей части теоретиков, которые могут выдать новый вариант ядра. Когда-нибудь. Который ещё нужно будет допилить и реально выпустить. Это явно не «быстрый успех».кто-то в индустрии разбирается в ARM ядрах лучше них?
В ноутах… упрётся в ОС (хром ос имеет 1 процент, винда ещё хз когда сможет нормально), в декстопе — тем более.ARM перспективнее x86 банально за счет лучшей производительности на ватт. MS уже давненько пытаются на нем запуститься, а сейчас, когда это удалось apple, так у них совсем подгорать начнет. Очень уж много компаний не хотят чтобы макбуки сильно обходили конкурентов
Новые. Которые нужно продать. Причём основная маржа именно с топовых чиповмаржа с топовых чипов выше, да. А доход — нет.
А в производстве оных?для производства задизайненных чипов у них уже есть люди
А без совместимости с старыми программами — привет Windows RT.неужели наконец-то грядет вендекапец?
Ну вот видите, вы сами описываете это как будущую возможность уровня бабушка на двое сказалану «ARM перспективнее» — факт. Как следствие, вечно тянуть x86 MS не смогут — рано или поздно хромбуки с макбуками задавят. Значит переходить придется.
Вот насколько помню, все их тегры под планшеты как-то не захватили рынка. Успешный отдел разработки, дааавот они и купили себе успешный отдел разработки. Или вы думаете что для печати чипов им принципиально важно это GPU, CPU или что-то еще?
пока это только ваше желание.нет, это буквально факт. ARM'у как минимум не нужно тратить тепло/транзисторы на конвертацию x86 CISC во внутренний RISC.
а что, 3950х уже был порван тузиком?а что, 3950x в ноуты ставят?
угу. 0,9% в мире вдруг резко порвут всёя не говорил про «резко». Но вы же ноутбук выбираете по ТТХ, а не по его умению запускать третьих героев?
Ознакомьтесь с текущей цифрой там, а после покажите мне долю этих стартапов армовских в оном же.я говорю про ноутбуки, вы приводите контраргументы то про десктопы, то про сервера. Ну давайте про сервера тогда — за последние 5 лет продажи серверных ARM чипов выросли больше чем в 10 раз. Ampere Altra обещает большую производительность/ватт чем epyc'и. Звучит убедительно? И разумеется переход intel->AMD будет быстрее потому что архитектура одна и та же.
А так вы похожи на любителей уже лет 30 кричать про вендекопец.я лишь надеюсь на вендекапец. А думаю что MS таки запустятся на ARM. О чем я уже и написал
это факт только для смартфонов и пока ещё для планшетов.у вас любой процессор упирается в первую очередь именно в тепловыделение. Соответственно если у архитектуры X производительность на ватт выше чем у Y, значит можно сделать чип A(X) который превзойдет B(Y) в любой его «весовой категории».
«пока» — в том смысле, что будущее двояко
по сравнению с 0 до текущих у АМД — это сколько?вы пытаетесь сравнить разные вещи. Увеличение доли в рамках архитектуры и вне их — совершенно разные вещи.
Долю итоговую. Долю)
Обещанных армов сколько ждать надо?у вас зудит чтоли? Дальше чем завтра не существует? Да, доля процентов в 30 может жить еще хоть лет 30, просто из-за менталитета «если работает, то зачем менять?»
То есть не один, а целых 10 штук продали? Спасибо, я примерно так и думал.у пленки kodak тоже в своё время огромная доля рынка была. И у CD-дисков. И у HDD.
Ну там, что у амд уже выше чем у интела при одной частоте производительность вышеспорите про производительность на ватт, говорите про частоту. Частота измеряется в герцах, если вы забыли. Вот производительность на ватт у АМД сейчас выше, да. Преимущественно из-за использования более совершенного техпроцесса.
а значит вы и можете что отсылать «в пределах 5 ватт эта круче».в пределах 5 ватт x86 попросту не присуствует — не тянет. В пределах 7 ватт arm круче, в пределах 15 ватт круче, какие там еще пределы есть? 205W? Возьмем бенчмарки прошлогоднего Marvell ThunderX2 — кое-где сравнимо, но не шибко впечатляют, да? Вот только он на TSMC 16nm и в три раза дешевле.
А, то есть вы этим говорили про план в 30 лет?я не говорил про план в 30 лет, я говорил что текущие устройства могут не заменяться еще 30 лет. А чтобы представить конкуренцию на рынке, который сейчас начинает зарождаться, надо шевелиться, как я и сказал, ASAP.
Ну извините, что я не правильно истолковал ваши словаИз состояния «исковеркал как мог и не извинился» в состояние «исковеркал как мог и извинился»… Ну, хоть какой-то прогресс
АРМ — это не новая технология. Не революция, не изменения, не даже эволюция.флешки существовали еще в 70-х и тоже принципиально новой технологией не были. Они просто «переросли» своих конкурентов с меньшим потенциалом. Может и второй динозавр, да, но способный перерасти первого
Просто второй динозавр рядышком.
Ещё раз, АМД уже сейчас на одной частоте обходит интел. Интел же просто жарит чуть выше частоту, но при этом он вынужден жрать больше энергии, причём уже по квадратичной зависимостиЭто не только не опровергает мою аргументацию, но и вообще никак с ней не соотносится.
сравнение с Ryzen 5 4500U в студиюесли верить утечкам, A14 выдает 4612 очков в geekbench 5, примерно столько же сколько ryzen 5 4500U в самых лучших ноутбуках (там диапазон 2600-4850 очков). У A14 TDP 6W, у ryzen'а — 15W. Для сравнения, A13 выдает до 3500 очков
Нет, из состояния понял… ваши слова перевёл ...вы мои слова сказанные в разных контекстах смешиваете, потом читаете, и потом с этим творением собственного разума спорите.
Не начинает он зарождаться сейчас. Не начинает.я говорил про рынок ARM-процессоров для серверов и ноутбуков.
Уже сейчас есть рынок, куда Нвидия стремиться — это серверы
Попытка получить большую производительность за счёт разгона частот ведёт к квадратичному росту потребления. Если армы разогнать по частотам — они тоже начнут жрать энергию.ну да, ну так весь мой поинт что когда их настолько же разгонишь они всё еще будут меньше жрать. Или дальше разогнать чтобы столько же жрали.
Правда? Извините, Вы как-то незаметно про сервера говорили, более того, это я вам ответил:так точно мистер Холмс, когда я предполагал, куда nvidia стремится в первую очередь, я говорил только про ноутбуки… Здесь же — про появление рынка как такового, независимо от конкретных приоритетов nvidia — им надо шевелиться чтобы зайти и в ноутбуки, и в сервера.
Но мне не пришлось бы это объяснять если бы вы читали то что я пишу с целью понять, а не изобрести противоречия
И много это* тратит?ну допустим процентов 15, я думаю больше, но это и не столь важно. Тогда это будет 15% энергии, которую фундаментально нельзя преобразовать в вычислительную мощность. А на другой архитектуре — можно. И если раньше ARM не пытались как-то сильно разогнать или отмасштабировать, цели такой не стояло, то сейчас начинают пытаться.
*ARM инструкции еще намного лучше структурированы чем x86 аналоги. Например банальные addps и vaddps функционально дублируют друг друга, лишь возвращают результат по разному. И это всё расходует транзисторный бюджет.
Тем более что тут также как и с виндой — производить ничего не надо, достаточно только разрабатывать и продавать лицензии
Основатель ARM считает сделку с Nvidia катастрофой для всей IT-отрасли