Как стать автором
Обновить

Комментарии 81

бизнес модель ARM несовместима с текущей бизнес-моделью Nvidia.

плохая адаптация лицензионного бизнеса Arm к аппаратной и программной бизнес-модели Apple

различие в том что первые решили ее купить, а вторые — нет. хотя первые не используют ее решения, а вторые — используют.

Tegra — это очень маленький кусочек, такая игрушка в компании NVidia.

Ну да, автомобильный рынок для нвидии игрушка, так, что ли?

К сожалению не могу найти никаких цифр по количеству проданных Tegra. Их количество в любом случае точно меньше как минимум на один-полтора порядка чем количество настольных и серверных чипов.

Это количество точно не меньше 62 миллионов, т.к. во всех Nintendo Switch установлен чип Tegra X1

Несколько лет назад пользовался Андроид планшетом на Тегре. Конечно, там ещё Qualcomm был в качестве модема. Но система крутилась на Тегре.

Помнится NVIDIA со своим планшетом на тегре как раз проводила первые опыты с облачным геймингом.
Ее TV приставки Shield как раз под облачный гейминг и на Tegra X1
NVidia продвигает целое семейство встраиваемых решений Jetson на Tegra. Судя по количеству предлагаемых для них корпусов и модулей расширения — продаются они неплохо
Было бы неплохо, если бы после этого все ушли дружно улучшать RISC-V, вот тогда-то и наступит эпоха открытости.
Хотя, конечно, скорее всего будет, как написано в новости, и NVidia просто предоставит гарантии нейтральности для лицензирования архитектуры. Впрочем, если и так, то эта нейтральность всё равно будет крайне интересной. Скажем, что они будут делать с тем же Huawei?
Это меньшая из всех проблем Huawei.
Если Huawei найдет на чем выпускать свои процессоры в Китае, а ARM не лицензирует им ядра, то Huawei будет это делать без всякой оплаты за лицензирование ядер ARM, не вижу проблемы — чего еще может потерять изгой?
Пока они не могут свои процессоры выпускать из-за того что TSMC с ними перестала работать и в телефоны ставят SoC Квалком и Медиатек, в этих случаях их проблема с лицензированием ARM вообще не касается, это заботы Квалкома и Медиатека.
НЛО прилетело и опубликовало эту надпись здесь

Я честно не понимаю этого "хайпа" вокруг RISC-V и прочих открытых ISA. Архитектурно они зачастую сильно уступают тем же ARM, MIPS и прч.(что не пришло не в голову сразу) За тем исключением когда это предписывает ТЗ конкретного устройства. (К примеру ядра открытых ISA могут потреблять мало энергии и в случае когда весь код программы умещается в пару десятков килобайт и надо просто гонять данные, они будут смотреться привлекательней чем "крупные" игроки.)


Только лишь из-за того что архитектура открыта её пытаются пропихнуть в массы? Ужасно…

Почему RISC-V уступает? По идее, на момент её создания, она должна была отбросить всё 35-летнее legacy ARM и стать чистой, красивой, образцовой. Учесть все ошибки и грабли.

Каким образом она отбросит легаси arm когда она по сути является продолжением развития mips)?

Ну от того MIPS там крайне мало — основные его ляпы и устарелости выкинуты. Некоторые вещи типа отсутствия регистра кодов условий, да, ближе к MIPS, чем к ARM (но также к Alpha и ещё десятку архитектур). Всякие delay slots выкинуты (и правильно). На нём вполне приятно писать, в отличие от MIPS.

Если вы разберёте _ инструкции на такт/количество байт в коде/размер ядра, то удивитесь как ARM и даже MIPS уделывает те открытые архитектуры в этих соотношениях.
По крайней мере, так было год назад.
И единственное преимущество в железе что я помню, более низкое "динамическое" потребление энергии, и даже тут с оговорками.


Не кнш мб вы скажите что — "подумаешь разница в 20%, сейчас такие быстрые системные шины что даже не заметишь этого", но как раз эти 20% потом влезут вам боком когда вы упрётесь в этот потолок и как итог — нагрузка на ОЗУ больше, кэши больше, шина шире, кристал жирнее…
Прям свои кошмары рассказываю…


Единственное важное преимущество открытости лишь в идеии возможной безопасности путём работы сообщества.
UPD Именно ядра, ибо SoC это набор переферии, тогда все интерфейсы что там присутствуют, даже шины, должны быть open source иначе это не имеет смвсла

как ARM и даже MIPS уделывает те открытые архитектуры в этих соотношениях.

Так это уже вопрос не ISA, а конкретных реализаций. Да, нет пока нормального RISC-V с OoO в ASIC… если будет кому интересно — сделают. Зато никому платить не надо будет.

35-летнее легаси отброшено уже в AArch64. ARM не Intel и не втянули за собой древние команды, которые нафиг не нужны, кривые флаги и прочие нелепости.


Сравнивая ARM и RISC-V с точки зрения старого знатока ассемблера, но без опыта написания компиляторов под них, вижу следующие моменты:


  1. RISC-V просто ещё не определён в до чёрта моментов, в основном это системные вещи, но и местами базовые типа векторных операций. Они медленно "спускаются с горы", определяя и уточняя, но скорость процесса показывает, что пока мало реально толстых игроков.


  2. RISC-V принципиально пропускает некоторые возможные вкусности. Например, команд группы BFM нет и не предполагается пока, а они чрезвычайно удобны и эффективны для всех участников. Да, это специфический частный случай, но таких случаев может быть достаточно много.


  3. В системной части RISC-V находится под очень сильным влиянием x86 (в первую очередь его методам страничной виртуализации памяти). По-моему, они могли бы сделать тут заметный шаг вперёд, но не хотят.


В перспективе открытая архитектура «открывает» совершенно другой мир. Гораздо более производительный, гибкий, экономный и безопасный чем существующий. Возможно через пару десятков лет, сделать процессор будет также просто как заказать печатную плату.
Сейчас по сути все кроме военных закрывают глаза на безопасность железа («а что мы можем поделать») в лучшем случае ограничиваясь отключением части Intel ME (и аналога от AMD), конечный пользователь практически никогда не знает что он покупает (например про работающую, но отключенную программно плюшку в его мобильной системе на кристалле), а энтузиастам приходится с боем добывать обрывки документации и тратить месяцы на реверс. Открытая архитектура может это изменить и разбавить монополистов коллаборациями одиночек, небольших компаний, институтов.

Но ведь, насколько я понимаю, RISV-V — это только ISA, а сама, так сказать, имплементация вполне есть закрытые.

Чтобы «открыть» другой мир нужны открытые SOC, а не открытые архитектуры, потому что разработчики электорники покупают готовую SOC а не архитектуру. А SOC это ядро с кучей переферии среди которой чужие IP блоки, да еще и HAL/SDK впридачу. Для возникновения гибких openSOC на мой взгляд не хвататет 2х ключевых технологий:
1. Упростить одновременную и согласованную разработку SOC и HAL/SDK. (Из своего опыта embedded разработчика могу сказать что SOC делает кто-то как-то, не берусь оценивать насколько хорошо а вот HAL или SDK зачастую хромает).
2. Упростить создание малой серии кастомного чипа. Чтобы мы не паяли кучу микросхем на плату заказывали чип под свои задачи. Это сейчас невозможно, потому что фотолитография делается с помощью дорогих и сложных в изготовлении масок. Поэтому любой чип дешев засчет серийности, его не закажешь в мелкой серии как печатную плату.
MIPS, вроде, теперь тоже открытая ISA
Снова закрыли.

Да не наступила бы. Конечно, архитектура "open source" (хотя позволяет создавать свои закрытые наборы инструкций, не говоря уже об IP-ядрах), но open hardware, открытые бутлоадеры или открытые прошивки без чёрных ходов никто не обещает.

Гарантии как Oracle для Java?
Продать стандартную лицензию на ядро, с правом модификации. Как только внесут изменения — сбросить с телеги.
Кто кому должен продать?
Не слышал чтобы кто-то сейчас самостоятельно модифицировал стандартные ядра ARM за пределами элементарных настроек размера кэшей и т.д.
Хотя Cortex-X1 поставляется с более тонкими настройками, но это исключение.
Не слышал чтобы кто-то сейчас самостоятельно модифицировал стандартные ядра ARM за пределами элементарных настроек размера кэшей и т.д.
а apple? Вряд ли они обходят конкурентов на пару поколений за счет тюнинга пары настроек
Вряд ли они обходят конкурентов на пару поколений за счет тюнинга пары настроек

Вряд ли они хоть на четверть поколения обходят конкурентов. Пока что ARM-маков нет (поэтому и говорить что-то бессмысленно на их счёт), а ARM-смартфоны нельзя сравнивать в попугаях, потому что пользователю не попугаи нужны от смартфона. Отличия в ОС тоже нельзя игнорировать.

Когда двухлетний планшетный процессор под macOS в режиме эмуляции x86 показывает результат лучше, чем новый State-of-the-Art Snapdragon под Windows в нативном режиме — это именно что на пару поколений впереди: https://www.zdnet.com/article/arm-benchmarks-apple-silicon-trounces-microsofts-surface-pro-x-in-first-tests/
Бенчмарки процессоров вообще очень слабо зависят от ОС.


Ну и вот эти картинки очень показательны: https://twitter.com/slightlylate/status/1233275220275818498

гикбенч — это не бенчмарк процессора так-то
«ну и вы говорите» (С) бородатый анекдот

А бенчмарк чего он по-вашему?

да кто ж его знает, что он там измеряет
Argumentum ad verecundiam incoming: www.realworldtech.com/forum/?threadid=136526&curpostid=136666
Конечно, можно поспорить, что, дескать, важен результат, и если ARM его обеспечивает, то пусть хоть 20 сопроцессоров поставит… Но на практике это значит, что если не завезли поддержку нового видеокодека — то извините, в следующий раз. Идеально для фейсбук-машинок и запланированного устаревания.

Немного опоздали с критикой GB3, лет на 7. GB5 более разнообразный и взвешенный. Ну и лучше него сейчас бенчмарков нет.
Если же доверие к GB совсем подорвано, то можно посмотреть например на SPEC2006: https://www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/4


Что касается специализированных инструкций и блоков — это общее место для всех процессоров сейчас. Intel x86 имеет те же инструкции для AES, SHA и многого другого.
А декодировать какой-нибудь HEVC 4k60fps с хорошим битрейтом бессмысленно на любом CPU без аппаратного ускорения.

Эппл и их сотрудники в твитерах не раз писали, что их ядра не стандартные кортексы.
А нвидиа в данном случае будет просто пихать свои видеокарты всем как стандартную опцию.
Не слышал чтобы кто-то сейчас самостоятельно модифицировал стандартные ядра ARM за пределами элементарных настроек размера кэшей и т.д.


Та же NVidia с Tegra X2/Denver2, Tegra Xavier/Carmel там если не ошибаюсь от арм только система команд ARMv8 а чип свой.
Когда уже на Куртку накинут смирительную рубашку? )))
А что мешает Apple, Qualcomm и прочим лицензиатам скинуться условные 50b$ и купить ARM, если они считают переход ARM под крыло Nvidia катастрофой? Или избежание этой «катастрофы» не стоит 50b$, но тогда это не такая уж и катастрофа.
ну с apple не понятно, зачем они его вообще продавали, одни из основателей ARM как-никак. Но вообще не должно быть ситуации, когда для сотрудничества с компанией требуется доля в ней. Подозреваю, регуляторы еще навешают условий на сделку, касательно текущих лицензий ARM
Ну Nvidia имеют же право решить, что процессоры на ARM теперь будут выпускать только они и прекратить давать лицензию на производство процессоров на основе их архитектуры (Естественно, если это не нарушает уже заключенных договоров). Вон, Intel и Amd так делают и нормально себя чувствуют. В США есть ещё Билль о правах, а там определена свобода ассоциаций, хотя есть куча антимонопольных актов. Из-за особенностей правовой системы США, однако, в случае суда, всё будет зависеть от мнения конкретных судей, ибо конституция там не детерминирована.
А если у кого-то уже есть лицензия на N десятков лет с правом модификации?
Значит эта компания будет иметь право выпускать новые Arm процессоры N десятков лет. Я же написал про прекращение выдачи лицензий, а не про их отзыв. Правда, не очень понятна практическая сторона вопроса. Arm развивается и Nvidia, теоритически, к новым ревизиям Arm может закрыть доступ для таких компаний. Можно, конечное, сделать форк, но зачем делать форк, зная, что через N лет у тебя прекратится лицензия.
У Apple, например, есть пожизненная лицензия на все разработки ARM.
Тут надо смотреть как эта лицензия сделана. Если завтра Nvidia скажет, что у нас новая arm совместимая архитектура (как amd64 является x86 совместимой) и все права на эту архитектуру принадлежат Nvidia, то будет ли Apple иметь лицензию на эту новую архитектуру? Имеет ли Apple лицензии на все форки Arm или Apple имеет лицензию на все продукты компании Arm?
Apple продали свою долю в ARM очень давно, лет 15 назад.

Думаю Apple вообще все равно у них пожизненная лицензия (может еще какие договоры), да и не хотят они для других делать архитектуру.

А как всё это лицензируется для военных?
НЛО прилетело и опубликовало эту надпись здесь
Ушел Apple от NVIDIA, А теперь NVIDIA пришла к APPLE через ARM. Прям месть какая =)
да нвидии примерно пофиг на apple. Они просто чуют куда ветер дует — в сторону мобильных устройств с SoC, где CPU/GPU и прочие в одном чипе будут, возможно даже с RAM. Что совсем не укладывается в текущую парадигму распространения от nvidia. Вот они и хотят подготовить продукт под перспективный рынок
НЛО прилетело и опубликовало эту надпись здесь
Угу, именно поэтому они типа планируют составить конкуренцию интел и амд?
ну да, так я себе это и представляю — выпустить SoC на ARM для конкуренции с x86 SoC от Intel/AMD и обойти их за счет того, что ARM перспективнее x86
Для этого не было необходимости покупать АРМ, хватило бы покупки лицензии
и пытаться делать чип на новой для них архитектуре? Полагаю, квалифицированные инженеры им тоже нужны
НЛО прилетело и опубликовало эту надпись здесь
А вот в мобильном, где уже парочка сидит ровно на тех же армах (квалком и медиатек из тех, кто для других чипы делает), а один уже не осилил (самсунг), плюс конкурировать с Эпл…
у квалкома и медиатека не будет такой видюхи, да и с apple nvidia разминется — apple не собирается продавать свои чипы, а андроидам с ARM ноутбуками надо будет на чем-то работать
Отдел разработки мобильного чипа за 40 лярдов?
ну схантите вы целое подразделение компании, а потом окажется что все наработки этого подразделения там же в компании и остались, плюс всякие договоры о неразглашении. В итоге вы будете начинать с теми же людьми, но с нуля.

В общем, черт знает что там nvidia нужно от ARM, но это точно что-то масштабное и в режиме ASAP.
НЛО прилетело и опубликовало эту надпись здесь
Ага, только на размер рынка это влияет. С учётом, что в богатых странах доля Эпл в мобилках и планшетах велика, то доля прочих уменьшается.
рынок не ограничивается ни богатыми странами, ни мобилками/планшетами. И даже там за эплом меньше половины рынка.
В любом случае, АРМ не производит чипы сам, не продаёт их окружающим производителям и не внедряет их
тем не менее они разрабатывают их. И если nvidia хочет делать чипы круче чем у конкурентов, лицензирующих ядра cortex, им либо А. нужно было начинать несколько лет назад, либо Б. добыть где-то кучу инженеров, разрабатывающих ARM ядра, вместе с их наработками. Купив «один из стартапов» они бы получили ровно такого же рядового пользователя cortex, каким могли бы быть и сами
НЛО прилетело и опубликовало эту надпись здесь
Но деньги-то там приносят топовые железки
ну нвидии то деньги будут приносить чипы
Сейчас они купили по большей части теоретиков, которые могут выдать новый вариант ядра. Когда-нибудь. Который ещё нужно будет допилить и реально выпустить. Это явно не «быстрый успех».
кто-то в индустрии разбирается в ARM ядрах лучше них?
В ноутах… упрётся в ОС (хром ос имеет 1 процент, винда ещё хз когда сможет нормально), в декстопе — тем более.
ARM перспективнее x86 банально за счет лучшей производительности на ватт. MS уже давненько пытаются на нем запуститься, а сейчас, когда это удалось apple, так у них совсем подгорать начнет. Очень уж много компаний не хотят чтобы макбуки сильно обходили конкурентов
НЛО прилетело и опубликовало эту надпись здесь
Новые. Которые нужно продать. Причём основная маржа именно с топовых чипов
маржа с топовых чипов выше, да. А доход — нет.
А в производстве оных?
для производства задизайненных чипов у них уже есть люди
А без совместимости с старыми программами — привет Windows RT.
неужели наконец-то грядет вендекапец?
Ну вот видите, вы сами описываете это как будущую возможность уровня бабушка на двое сказала
ну «ARM перспективнее» — факт. Как следствие, вечно тянуть x86 MS не смогут — рано или поздно хромбуки с макбуками задавят. Значит переходить придется.
НЛО прилетело и опубликовало эту надпись здесь
Вот насколько помню, все их тегры под планшеты как-то не захватили рынка. Успешный отдел разработки, дааа
вот они и купили себе успешный отдел разработки. Или вы думаете что для печати чипов им принципиально важно это GPU, CPU или что-то еще?
пока это только ваше желание.
нет, это буквально факт. ARM'у как минимум не нужно тратить тепло/транзисторы на конвертацию x86 CISC во внутренний RISC.
а что, 3950х уже был порван тузиком?
а что, 3950x в ноуты ставят?
угу. 0,9% в мире вдруг резко порвут всё
я не говорил про «резко». Но вы же ноутбук выбираете по ТТХ, а не по его умению запускать третьих героев?
Ознакомьтесь с текущей цифрой там, а после покажите мне долю этих стартапов армовских в оном же.
я говорю про ноутбуки, вы приводите контраргументы то про десктопы, то про сервера. Ну давайте про сервера тогда — за последние 5 лет продажи серверных ARM чипов выросли больше чем в 10 раз. Ampere Altra обещает большую производительность/ватт чем epyc'и. Звучит убедительно? И разумеется переход intel->AMD будет быстрее потому что архитектура одна и та же.
А так вы похожи на любителей уже лет 30 кричать про вендекопец.
я лишь надеюсь на вендекапец. А думаю что MS таки запустятся на ARM. О чем я уже и написал
НЛО прилетело и опубликовало эту надпись здесь
это факт только для смартфонов и пока ещё для планшетов.
«пока» — в том смысле, что будущее двояко
у вас любой процессор упирается в первую очередь именно в тепловыделение. Соответственно если у архитектуры X производительность на ватт выше чем у Y, значит можно сделать чип A(X) который превзойдет B(Y) в любой его «весовой категории».
по сравнению с 0 до текущих у АМД — это сколько?
Долю итоговую. Долю)
вы пытаетесь сравнить разные вещи. Увеличение доли в рамках архитектуры и вне их — совершенно разные вещи.
Обещанных армов сколько ждать надо?
у вас зудит чтоли? Дальше чем завтра не существует? Да, доля процентов в 30 может жить еще хоть лет 30, просто из-за менталитета «если работает, то зачем менять?»
НЛО прилетело и опубликовало эту надпись здесь
То есть не один, а целых 10 штук продали? Спасибо, я примерно так и думал.
у пленки kodak тоже в своё время огромная доля рынка была. И у CD-дисков. И у HDD.
Ну там, что у амд уже выше чем у интела при одной частоте производительность выше
спорите про производительность на ватт, говорите про частоту. Частота измеряется в герцах, если вы забыли. Вот производительность на ватт у АМД сейчас выше, да. Преимущественно из-за использования более совершенного техпроцесса.
а значит вы и можете что отсылать «в пределах 5 ватт эта круче».
в пределах 5 ватт x86 попросту не присуствует — не тянет. В пределах 7 ватт arm круче, в пределах 15 ватт круче, какие там еще пределы есть? 205W? Возьмем бенчмарки прошлогоднего Marvell ThunderX2 — кое-где сравнимо, но не шибко впечатляют, да? Вот только он на TSMC 16nm и в три раза дешевле.
А, то есть вы этим говорили про план в 30 лет?
я не говорил про план в 30 лет, я говорил что текущие устройства могут не заменяться еще 30 лет. А чтобы представить конкуренцию на рынке, который сейчас начинает зарождаться, надо шевелиться, как я и сказал, ASAP.
Ну извините, что я не правильно истолковал ваши слова
Из состояния «исковеркал как мог и не извинился» в состояние «исковеркал как мог и извинился»… Ну, хоть какой-то прогресс
НЛО прилетело и опубликовало эту надпись здесь
АРМ — это не новая технология. Не революция, не изменения, не даже эволюция.
Просто второй динозавр рядышком.
флешки существовали еще в 70-х и тоже принципиально новой технологией не были. Они просто «переросли» своих конкурентов с меньшим потенциалом. Может и второй динозавр, да, но способный перерасти первого
Ещё раз, АМД уже сейчас на одной частоте обходит интел. Интел же просто жарит чуть выше частоту, но при этом он вынужден жрать больше энергии, причём уже по квадратичной зависимости
Это не только не опровергает мою аргументацию, но и вообще никак с ней не соотносится.
сравнение с Ryzen 5 4500U в студию
если верить утечкам, A14 выдает 4612 очков в geekbench 5, примерно столько же сколько ryzen 5 4500U в самых лучших ноутбуках (там диапазон 2600-4850 очков). У A14 TDP 6W, у ryzen'а — 15W. Для сравнения, A13 выдает до 3500 очков
Нет, из состояния понял… ваши слова перевёл ...
вы мои слова сказанные в разных контекстах смешиваете, потом читаете, и потом с этим творением собственного разума спорите.
Не начинает он зарождаться сейчас. Не начинает.
Уже сейчас есть рынок, куда Нвидия стремиться — это серверы
я говорил про рынок ARM-процессоров для серверов и ноутбуков.
НЛО прилетело и опубликовало эту надпись здесь
Попытка получить большую производительность за счёт разгона частот ведёт к квадратичному росту потребления. Если армы разогнать по частотам — они тоже начнут жрать энергию.
ну да, ну так весь мой поинт что когда их настолько же разгонишь они всё еще будут меньше жрать. Или дальше разогнать чтобы столько же жрали.
Правда? Извините, Вы как-то незаметно про сервера говорили, более того, это я вам ответил:
так точно мистер Холмс, когда я предполагал, куда nvidia стремится в первую очередь, я говорил только про ноутбуки… Здесь же — про появление рынка как такового, независимо от конкретных приоритетов nvidia — им надо шевелиться чтобы зайти и в ноутбуки, и в сервера.

Но мне не пришлось бы это объяснять если бы вы читали то что я пишу с целью понять, а не изобрести противоречия
НЛО прилетело и опубликовало эту надпись здесь
учитесь читать пожалуйста, потом спорьте
НЛО прилетело и опубликовало эту надпись здесь
И много это* тратит?
ну допустим процентов 15, я думаю больше, но это и не столь важно. Тогда это будет 15% энергии, которую фундаментально нельзя преобразовать в вычислительную мощность. А на другой архитектуре — можно. И если раньше ARM не пытались как-то сильно разогнать или отмасштабировать, цели такой не стояло, то сейчас начинают пытаться.

*ARM инструкции еще намного лучше структурированы чем x86 аналоги. Например банальные addps и vaddps функционально дублируют друг друга, лишь возвращают результат по разному. И это всё расходует транзисторный бюджет.
Странно что это не сделала Майкрософт, это был бы сильный ход для того чтоб остаться в седле.
Тем более что тут также как и с виндой — производить ничего не надо, достаточно только разрабатывать и продавать лицензии
Майкрософту такую сделку точно бы не разрешили. Мне кажется, это очевидно.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий