Чтобы AMD/Intel стали делать под ARM нужно было чтобы сподобилась сделать полноценное решение под ARM Microsoft. А чтобы Microsoft начала делать это решение — нужно чтобы AMD/Intel сделали.
Но Microsoft сделала своё решение уже 3 года назад...
Представьте, через год нам понадобился ноутбук, конкретно макбук. Денег у нас немного, поэтому смотрим на доски объявлений. А там есть Intel-Air позапрошлого года, и M1-Air прошлого года, с производительностью в 2-3 раза выше, и потенциально более длительной поддержкой. Какой должна быть разница в цене, чтобы предпочесть Intel-версию?
I specifically asked AMD's Mike Clarke about it and he mentioned that going to a wider decode than 4 would incur additional pipeline stages which would actually have a detriment on performance, and that's why they're not doing it.
Я практически уверен, что тут имеется в виду, что увеличение количества параллельных декодеров x86 чисто математически требует больше стадий, и слабо связано с физическими ограничениями полупроводников, иначе у нас уже были бы мобильные x86 чипы с 6-8 декодерами на более низкой частоте, с меньшим потреблением, но большим IPC (аналогично M1).
Т.е. по-вашему «сложные» схемы собираются не из тех же логических элементов, что и «простые»? Или вы представляете себе настолько гигантскую схему декодера, что в нём время распространения электрического поля в проводнике начинает быть сравнимым с временем переходного процесса при частоте 5ГГц, а при 3ГГц ещё ок?
Слишком сложная схема не будет срабатывать за такт обычного ALU.
Всё равно не понимаю, откуда это следует.
В сложной схеме переходные процессы дольше идут? Переключение транзисторов замедляется? Как вы это вообще себе представляете?
То, что сложные алгоритмы чисто математически не раскладываются на однотактовое выполнение на логических элементах, к делу не относится — в таких случаях просто делают их многостадийными.
Есть предположение, что Apple использует скрытые предположения в блок register renaming, например что их компилятор гарантирует что в блоке из 8 инструкций никогда не будет 8 взаимно зависимых.
У них нет никакого "своего компилятора". Обычный LLVM, практически из апстрима, со стандартным таргетом.
Посмотрим если гипотетический M3 или M4 сможет.
Судя по генеральному плану перехода всех линеек на свои процессоры — у них ещё не один сюрприз в рукаве.
От M2 можно обидать разве что минорных изменений и увеличения частоты, они уже на пределе.
А "предел" частоты вы откуда взяли?
Сделать его шириной в 8 и одновременно сохранить заоблачные частоты под 5Hgz физически невозможно на данный момент.
В упор не понимаю, как сложность схемы связана с частотой.
Ну через полтора-два года новых маков на Intel больше не будет.
Многие разработчики под macOS уже пересели на M1, т.к. выпускать ARM-версии приложений надо, и производительности хватает с головой.
Разработка под iOS тоже сильно упрощается и ускоряется — симулятор больше не нужен, и это приличный кусок рынка недорогих (и б/y) маков.
Поколение Air перед M1 уже можно продать за более-менее нормальные деньги только тому, кто про M1 ничего не слышал — а таких людей будет всё меньше.
Я думаю, они слишком поздно появились, и до сих пор не имеют очевидного интерфейса управления.
Большинство пользователей (включая меня) давно наработали паттерны работы в Windows, которые не задействуют использование рабочих столов.
Они пытались сделать подобную микроархитектуру, но не преуспели. Это был один из последних производителей, пытавшихся сделать свои мощные ядра, а не лицензировать у ARM.
Возможно, через некоторое время Qualcomm выпустит продукт разработок Nuvia.
Потому что через год ноутбуки выйдут настолько лучше, что многие захотят обновиться. Редизайн + следующее поколение CPU и GPU.
Ну и софт начнёт оптимизироваться под ARM в первую очередь, ML-библиотеки поддержат Neural Engine и т.д.
Старые модели не станут электронным мусором, они ещё лет 5 будут поддерживаться, софт будет выходить. Но, на контрасте даже с M1, их привлекательность на рынке упадёт.
Или это просто ритуал фанатов Apple, как и с айфонами
Мне вот интересно, откуда у людей вот такие стереотипы про "фанатов", "ритуалы" и тому подобное?
Не криворукого и не одного, а двух) То что вы их лично ненавидите не делает их етсты неправильными или ошибочными.
А то, что вы их так любите, не делает их обзоры объективным отражением действительности.
Брюзжу и буду брюзжать. А знаете почему? Потому что только так можно чего то добиться.
Всё, чего вы можете добиться — ввести в заблуждение нескольких впечатлительных пользователей хабра, задумывающихся о покупке макбука, что заставит их взять более слабые и горячие Intel-модели, которые через год будет невозможно продать.
Именно поэтому я продолжаю отвечать на ваши бессмысленные набросы — чтобы люди не делали таких ошибок.
Теперь нормальный производительный процессор поменяли на дешевую арм затычку, а вы опять молчите.
Эти "нормальные процессоры" мы видели в прошлом поколении макбуков, и "затычка" их просто уничтожает вообще по всем параметрам и посягает на десктопные процессоры.
Очнитесь, времена слабеньких ARM-процессоров давно прошли.
Про остальное я воздержусь комментировать, это уже просто нерациональный хейт.
Из всего что вы привели не бенчмарк только вебкит. И только в нем почему то не видно «впечатляющей производительности». Совпадение? :)
Если сборка большого C++ проекта на скорости 12-ядерного Mac Pro не впечатляет, то мне нечего вам больше предложить.
А вот не надо, нравится вам — ешьте хоть лопатой. Остальных кормить не надо.
Вы вообще ничего не привели, кроме одного криворукого видеоблоггера, но уже несколько месяцев приходите в каждую тему о M1 и брюзжите, хотя в глаза эти маки не видели.
Вроде не только
docs.microsoft.com/en-us/windows/win32/direct3d12/memory-management-strategies
Это как раз для XBox и сделано, где особенная архитектура APU и свои драйвера.
Насколько я знаю, поддержка HSA и HMM в Linux была реализована в каком-то виде под Kaveri, для специализированных задач, но статус в настоящее время непонятен.
До windows-PC и полноценных драйверов вообще дело не дошло.
Отлично, значит вам не составит труда найти тест в котором выполняется одна и та же задача на разных пк и одной версии ос, а лучше сразу несколько задач.
Компиляция в Xcode в сравнении с топовым intel Macbook Pro 16. На этом же канале много разных сравнений разных систем сборки (только смотреть надо внимательно, часть компиляторов во время записи видео ещё работала через Rosetta).
Сравнение компиляции Webkit на разных компьютерах. Горка разных бенчмарков сред исполнения.
По поводу монтирования видео достаточно в Youtube вбить "M1 vs MBP 16", их там тысячи от разных видеоблоггеров.
Просто бенчмарки есть на anandtech, notebookcheck и многих других сайтах.
Купить наугад сырой продукт в максимальной комплектации.
Я его взял на пробу новой архитектуры, с возможностью вернуть в первые 2 недели. Теперь это мой основной компьютер.
Всем бы такие "сырые" продукты.
Интегрированные видяшки на x86 тоже UMA (unified memory architecture).
Только AMD и только на консолях (но там тоже свои особенности с разными шинами к памяти и без общих кэшей). В ноутбуках/десктопах GPU просто выделяется отдельный пул памяти, в который CPU копирует данные, чтобы GPU мог с ними работать.
По итогу — кроме fixed-instruction-length на декодерах разницы вроде и не видно.
Кроме того, что из-за этого стало возможно сделать 8 параллельных декодеров и быстро заполнять reorder buffer в 600+ команд. У anandtech есть технический разбор микроархитектуры процессоров Apple.
Вообще эта статья для тех, кто в процессорах до этого ничего не понимал, поэтому вольно обращается с терминами.
Но Microsoft сделала своё решение уже 3 года назад...
Я практически уверен, что тут имеется в виду, что увеличение количества параллельных декодеров x86 чисто математически требует больше стадий, и слабо связано с физическими ограничениями полупроводников, иначе у нас уже были бы мобильные x86 чипы с 6-8 декодерами на более низкой частоте, с меньшим потреблением, но большим IPC (аналогично M1).
Примерно 3-5 лет до прекращения обновлений ОС, 6-7 до сокращения сервисной поддержки. Пользоваться можно — пока не помрёт.
Можно, конечно, но выбор "просто x64 ноутбуков" на вторичном рынке огромен, и цены там падают очень быстро.
Младшие модели уже устарели и сняты с производства. Сложно будет устареть быстрее.
Она есть. А что с ней?
Не врут, можно конечно. Это штатная возможность.
Т.е. по-вашему «сложные» схемы собираются не из тех же логических элементов, что и «простые»? Или вы представляете себе настолько гигантскую схему декодера, что в нём время распространения электрического поля в проводнике начинает быть сравнимым с временем переходного процесса при частоте 5ГГц, а при 3ГГц ещё ок?
Всё равно не понимаю, откуда это следует.
В сложной схеме переходные процессы дольше идут? Переключение транзисторов замедляется? Как вы это вообще себе представляете?
То, что сложные алгоритмы чисто математически не раскладываются на однотактовое выполнение на логических элементах, к делу не относится — в таких случаях просто делают их многостадийными.
Это много раз озвучивали инженеры Intel и AMD, например: https://www.realworldtech.com/forum/?threadid=196293&curpostid=196309
У них нет никакого "своего компилятора". Обычный LLVM, практически из апстрима, со стандартным таргетом.
Судя по генеральному плану перехода всех линеек на свои процессоры — у них ещё не один сюрприз в рукаве.
А "предел" частоты вы откуда взяли?
В упор не понимаю, как сложность схемы связана с частотой.
Процессор и раньше не эмулировался, билды собирались под x86, и в симуляторе была недо-iOS, пробрасывающая множество фреймворков в macOS.
А сейчас iOS-приложения вообще нативно запускаются без симуляторов и прослоек.
Запуск симулятора и заливка в него приложения занимали ненулевое время. А сам симулятор ел ресурсы, которых на слабых машинах и так немного.
VR-игры, например. Там всегда можно ещё чуть-чуть добавить supersampling и повысить частоту :)
Ну через полтора-два года новых маков на Intel больше не будет.
Многие разработчики под macOS уже пересели на M1, т.к. выпускать ARM-версии приложений надо, и производительности хватает с головой.
Разработка под iOS тоже сильно упрощается и ускоряется — симулятор больше не нужен, и это приличный кусок рынка недорогих (и б/y) маков.
Поколение Air перед M1 уже можно продать за более-менее нормальные деньги только тому, кто про M1 ничего не слышал — а таких людей будет всё меньше.
Я думаю, они слишком поздно появились, и до сих пор не имеют очевидного интерфейса управления.
Большинство пользователей (включая меня) давно наработали паттерны работы в Windows, которые не задействуют использование рабочих столов.
Они пытались сделать подобную микроархитектуру, но не преуспели. Это был один из последних производителей, пытавшихся сделать свои мощные ядра, а не лицензировать у ARM.
Возможно, через некоторое время Qualcomm выпустит продукт разработок Nuvia.
Потому что через год ноутбуки выйдут настолько лучше, что многие захотят обновиться. Редизайн + следующее поколение CPU и GPU.
Ну и софт начнёт оптимизироваться под ARM в первую очередь, ML-библиотеки поддержат Neural Engine и т.д.
Старые модели не станут электронным мусором, они ещё лет 5 будут поддерживаться, софт будет выходить. Но, на контрасте даже с M1, их привлекательность на рынке упадёт.
Мне вот интересно, откуда у людей вот такие стереотипы про "фанатов", "ритуалы" и тому подобное?
А то, что вы их так любите, не делает их обзоры объективным отражением действительности.
Всё, чего вы можете добиться — ввести в заблуждение нескольких впечатлительных пользователей хабра, задумывающихся о покупке макбука, что заставит их взять более слабые и горячие Intel-модели, которые через год будет невозможно продать.
Именно поэтому я продолжаю отвечать на ваши бессмысленные набросы — чтобы люди не делали таких ошибок.
Эти "нормальные процессоры" мы видели в прошлом поколении макбуков, и "затычка" их просто уничтожает вообще по всем параметрам и посягает на десктопные процессоры.
Очнитесь, времена слабеньких ARM-процессоров давно прошли.
Про остальное я воздержусь комментировать, это уже просто нерациональный хейт.
Если сборка большого C++ проекта на скорости 12-ядерного Mac Pro не впечатляет, то мне нечего вам больше предложить.
Вы вообще ничего не привели, кроме одного криворукого видеоблоггера, но уже несколько месяцев приходите в каждую тему о M1 и брюзжите, хотя в глаза эти маки не видели.
Это как раз для XBox и сделано, где особенная архитектура APU и свои драйвера.
Насколько я знаю, поддержка HSA и HMM в Linux была реализована в каком-то виде под Kaveri, для специализированных задач, но статус в настоящее время непонятен.
До windows-PC и полноценных драйверов вообще дело не дошло.
Компиляция в Xcode в сравнении с топовым intel Macbook Pro 16. На этом же канале много разных сравнений разных систем сборки (только смотреть надо внимательно, часть компиляторов во время записи видео ещё работала через Rosetta).
Сравнение компиляции Webkit на разных компьютерах.
Горка разных бенчмарков сред исполнения.
По поводу монтирования видео достаточно в Youtube вбить "M1 vs MBP 16", их там тысячи от разных видеоблоггеров.
Просто бенчмарки есть на anandtech, notebookcheck и многих других сайтах.
Я его взял на пробу новой архитектуры, с возможностью вернуть в первые 2 недели. Теперь это мой основной компьютер.
Всем бы такие "сырые" продукты.
Только AMD и только на консолях (но там тоже свои особенности с разными шинами к памяти и без общих кэшей). В ноутбуках/десктопах GPU просто выделяется отдельный пул памяти, в который CPU копирует данные, чтобы GPU мог с ними работать.
Кроме того, что из-за этого стало возможно сделать 8 параллельных декодеров и быстро заполнять reorder buffer в 600+ команд. У anandtech есть технический разбор микроархитектуры процессоров Apple.
Вообще эта статья для тех, кто в процессорах до этого ничего не понимал, поэтому вольно обращается с терминами.