Pull to refresh

Comments 308

Главная ошибка - это неправильный выбор архитектуры в итаниум и как следствие упущенное время чтобы войти в risc и занять в нем доминирующее положение. А сейчас против арм у х86 нет шансов.

До сих пор не понимаю, в чем вообще должно было быть преимущество Итаниума. Несовместимость с x86 сделали, а плюсы в чем?

а плюсы в чем

Да как и у любого VLIW идея была в том что бы напихать в один такт побольше инструкций и выплюнуть их результат одновременно. Оказалось что в реальном мире это работает так себе по причине злобных if else и отсутствия супер-умных компиляторов.

Даже с имеющимися компиляторами можно было выжать дополнительную производительность. Собственно, я это делал в качестве эксперимента для openssl с поддержкой ребят из Intel. В компиляторах был режим компиляции кода с накоплением статистики работы, после чего статистика использовалось для повторной компиляции с оптимизацией спекулятивных выборок, ну или еще чего-то там. Я получил выигрыш 20+% на тестах openssl. Вроде хорошо, только меня мучал вопрос, почему я в коробке получил скомпилированную неоптимальным способом базовую библиотеку, почему я достаточно легко сделал профилирование компиляции, но это не сделал Интел. Потом мне светили какие-то тесты и пересборка всех пакетов дистрибутива, свои репозитории...
Осадочек остался, можно было выжать из процессора больше просто нормально сделав свою работу.

Как разработчик компилятора для Эльбруса (который тоже VLIW) и которому PGO (Profile Guided Optimizations) дают также прирост производительности могу сказать, что возможно OpenSSL собирал не Intel, а просто обычные программисты, которые никогда не заглядывали в список опций. Даже если открыть список GCC, можно очень долго перебирать те опции, которые есть. Когда опций больше 500, то определить те, которые дают прирост производительности очень сложно. У меня лежит штук 20 научных статей по методам автоматического подбора. А большинство приложений собираются с -O2 и не более.

Я бы предпочел систему для которой -O2 генерирует близкий к оптимальному машинный код. Спасибо.

Это невозможно технически, так как вы в статике не знаете самые горячие пути исполнения программы (если только вы руками до этого не профилировали и не вставляли подсказки). -fprofile-generate/-fprofile-use даёт вам возможность для заданного тестового набора данных оптимизировать программу лучше. Но нужно держать в голове, что если на train данных у вас будет исполнен один код, а при реальном использовании другой, то вы получите замедление.

Также, в простом режиме -O2 вы собираете программу без LTO оптимизаций. Inline у вас будет работать в пределах одного модуля (если только не вынести всё в headers). Поэтому эффективность будет крайне ограничена.

Поэтому для более быстрого кода старайтесь использовать хотя бы такой набор -O3 -flto (или -fwhole) и сборку с профильной информацией с актуальными train данных.

Также крайне желательно узнать что там с вычислениями с плавающей запятой. -ffast -ffast-math могут тоже сильно ускорить программу.

Для моих проектов -O2 -flto генерирует вполне годный код, дальнейшие улучшения возможны только нечеловеческими трудозатратами, что не всегда оправдано. А вот -O3 бывает генерирует неработоспособный код (особенно для микроконтроллерного железа), так что я стараюсь не использовать эту опцию. Что же касается VLIW, то для неё любая оптимизация потребует нечеловеческих усилий, в том числе динамического профилироваиния и чтобы основываясь на 20-ти статьях подобрать комбинацию из 500 опций. Зачем это все ?

Строго говоря и без VLIW этот подход вполне используется. Как вручную используя макросы вроде likely/unlikely , так и автоматически - в том же Golang не так давно добавили профилировщик, который собирает статистику на проде и потом позволяет собрать бинарник более оптимально на основе анализа ветвлений и прочего.

Меня всегда интерсовал ответ на вопрос: как поведет себя таким образом заоптимизированный код на VLIW если друг неожиданно изменится структура потока обрабатываемых данных. Не начнет ли система тупить, если вместо фамилии начнут указывать имя и наоборот ? Как часто требуется пересобирать проект на проде для адаптации под изменяющийся поток данных ? На RISC/CISC такой проблемы нет, там все оптимизации внутри конвейера и профайлинг делается один раз. А что на VLIW ?

Можете подробнее раскрыть "изменение потока данных"? Пока звучит так, что ошибка либо в данных (например, изменён порядок полей), либо в программе (она не учитывает какие-то особенности)

Да проще всё: сначала одна ветвь if была горячая, а потом во внешнем мире что-то изменилось и горячей стала другая.

if это пол беды, VLIW процессоры с предсказателем ветвлений возможны. Но что если при изменении потока данных придется перетасовать размещение команд в длинном слове ? Это полная перекомпиляция проекта.

Сперва программа работала преимущественно с немецкими именами-фамилиями, потом пошли турецкие/курдские, потом арабские, а в конце - славянские.

Учитывая, что UTF-8 вещь весьма витиеватая, очень хороший пример.

Любая обработка видео, для которой как раз было бы выгодно использовать VLIW-процессоры.

Половина года зима, и поток со всех видеокамер идет темный, вторая половина года лето, и видеопоток идет пересвеченный.

А еще бывают дожди-грозы сумерки.

Или например, половина камер в переулке, где никого нет, а другая с интенсивным движением.

Чего-то сразу захотелось несколько сборок под разные профили и что-то умное, что эти сборки переключает. Это если использовать автоподстройку.

Да легко: допустим, парсинг json, средняя длина строк-ключей была около 6-7 символов, а тут входные данные изменились и средняя длина строк стала 42 символа.

Хм. Вот то что вы сейчас описали - очень напоминает JIT компиляцию в Java. Сначала интерпретируем код. Медленно, но зато собираем статистику. А потом компилируем. Мне кажется VM языки с JIT отлично бы прижились здесь.

Причем JVM и V8 умеют в деоптимизацию: когда меняется поток данных, они откатываются к неоптимальному коду с подсчетом новой статистики, а затем компилируют оптимальный код с новым профилем

И да и нет. Да, потому что реально крутая схема получения эффективного кода. Нет, потому что это надо делать в рантайме и JIT отнимает ресурсы у приложения, которое компилирует. Поищите на Ютубе доклад разработчиков JVM для E2K - ребят из ЮниПРО. Они подробно описали все сложности.
Для языка Rast, например, доступен компилятор LLVM, который обладает преимуществами JIT, но может себе позволить долгий процесс компиляции, потому что offline. Для С++ вроде тоже такой вариант доступен. Как я понял, именно о нём и писал выше redf1sh.
По сравнению с обычной компиляцией на С++ (через j++) java на Эльбрус 8С действительно очень сильно смотрится. Это я уже успел потестить.

Проект скомпилированный при помощи -O3 может работать медленнее -O2, случаи и обсуждения легко найти в Google. Идеальный вариант смотреть флейм графы и иметь механизм трейсинга по горячим путям, тогда достаточно легко понять какие опции для конкретного проекта приносят бОльший прирост.

Гентушники баловались PGO ещё 10-15 лет назад. Почему скомпилированные бинарники из коробки не PGOшные под основные архитектуры - действительно вопрос.

Считали офигенным плюсом именно избавиться от "проклятого легаси x86", но оказалось, что софта под 64-битные процессоры - мало, и потому более AMD-64 поддерживающие это легаси пользовались большей популярностью.

Вопрос что вообще дал им отказ от совместимости. Они же по производительности от AMD-64 тоже не ушли вперед, тогда зачем?

Вопрос что вообще дал им отказ от совместимости.

Скорее всего вопрос политический. Itanium(EPIC) был результатом партнерки с HP, всем недовольным из отдела x86 закрыли рты под угрозой увольнения, любое внедрение x64 в пентиумы рассматривалось как сабботаж, и скорее всего сам itanium нужен был как способ выйти из соглашения с АМД о кросслицензировании.

Ну и в целом в те времена пиджаки заправлявшие этим бизнесом еще думали по другому. Переоценивали рынок "экзотических" процессоров для серверов и недооценивали вопросы обратной совместимости. В 93 году такой маневр мог и проканать, в 2010 он бы выглядел 100% идиотским.

Интелам не повезло провернуть его ровно в тот момент когда он таковым не выглядел но по факту являлся.

Ну Итаниумы, как и Бабаяновские Эльбрусы всем мозги забили ещё в 90-е.
Пиар был настолько душный и плотный...
По поводу кросс-лицензии - на Р5 и Р6 архитектуре, то есть в первой половине 90х, уже он был достаточно жидким.
Но тогда у Интела был непререкаемый авторитет, и зачастую принималось много идиотских решений, не технически обоснованных, а патентно-закрытых как например RamBus, и судами и прочими некрасивыми действиями они вытесняли конкурентов в х86 архитектуре 1990-2000е особенно активно, но не трогая, а поддерживая №1 конкурента, чтобы их не порвало на тряпки антимонопольное ведомство, как ранее, например в 80-е АТТ, ИБМ и прочих.

64-разрядная IA-64 (официальное название архитектуры, Itanium -- торговая марка или как там её процессоров, реализующих эту архитектуру) много проще в железе, чем 32-разрядная IA-32 (которую обычно называют x86, хотя официальное название архитектуры таки IA-32). Упрощение достигается за счёт отказа от всяких железных ускорялок типа внеочередного выполнения команд и т.д. и т.п. -- что действительно очень сложно.

Предполагалось, что распараллеливание сделает компилятор (IA-64 -- архитектура с явным параллелизмом выполняемых операций: в одной команде задаётся сразу несколько одновременно выполняемых операций; IA-32, как и подавляющее большинство других архитектур концептуально выполняют операции строго последовательно). Но что-то пошло не так (с) В частности, оказалось, что распараллелить код на этапе компиляции не так-то просто. Хуже того, при реальном выполнении всё это распараллеливание нередко накрывается медным тазом из-за того, что процессор -- не единственное "живое существо" в компьютере. Скажем, компилятор думал, что можно этот доступ к памяти выполнить параллельно с этими операциями, а следующий -- с теми, и упаковал их в соответствующие команды. Но при выполнении оказалось, что память занята и не может вовремя ответить на запрос проца -- и он полностью останавливается, ожидая, пока память наконец-то разродится. А вот сложный суперскалярный IA-32 в такой ситуации может выполнять следующие команды, пока данные из памяти ему реально не понадобятся до такой степени, что он тоже вынужден будет остановиться. Ну, примерно так :)

И да, термины в статье используются, как обычно, неграмотно. И у современных процессоров Интел, и у современных процессоров АМД архитектура одна и та же -- AMD64 (Интел, позаимствовав её после провала итаниумов, переименовала её в Intel64, но сути это не меняет; нередко её обозначают x86-64, но это не её официальное обозначение). А всякие там Zen 3 -- это микроархитектура, т.е. внутреннее устройство процессора (архитектура -- это как процессор выглядит для программиста безотносительно к его внутреннему устройству).

Описанная вами ситуация с низкой плотностью микрокоманд в коде IA-64 должна была быть обнаружена заранее, еще до производства процессоров. Я так понимаю, что компилятор и эмулятор пишутся сначала, а только потом запускают производство, рекламу и продажи процессоров.
Интересно, почему Intel и HP не отказалиь от EPIC еще на стадии проектирования.

Интересно, почему Intel и HP не отказалиь от EPIC еще на стадии проектирования.

Там масса средств была вложена в пеар, который привёл к убийству или стагнации конкурирующих серверных RISC архитектур, таких как Alpha, PA-RISC, MIPS, SPARC. В результате, в начале 2000х х86-е стали лидировать в однопотоке. Таким образом, если рассматривать всю эту деятельность целиком, Интел сильно выиграл.

Предполагалося, что будет прорыв в компиляторах.

Оказалося, что прорыва нет и на данном этапе, чтоб его выполнить - денег не хватит.

Архитектура на бумаге позволяла значительно ускорится, в синтетических тестах тоже. Но обычные программы разрабатывали программисты гараздо ниже уровнем и там было ... пусто.

Почему не дождались компилятора, а ринулись в рынок с голым предположением ?

Большие корпорации США вообще редко ждут полного завершения всех проектов. Если они будут ждать, то те, кто не будут - их поглотят.

Лучше иметь пол продукта сейчас чем офигенный через 10 лет.

AMD64 (Интел, позаимствовав её после провала итаниумов, переименовала её в Intel64, но сути это не меняет; нередко её обозначают x86-64, но это не её официальное обозначение)

если быть еще точнее, то em64t или emt64.

У VLIW и RISC по сути отсутствует декодер команд. У x86 каждая инструкция декодируется, код инструкции является адресом подпрограммы в микрокоде, каждая инструкция это несколько шагов микрокода которые загружаются в конвейер, с системой предсказаний. И на каждом шаге микрокода выдаются сигналы управления вычислительной аппаратурой процессора. У VLIW этого нет, инструкция VLIW по сути состоит сразу из управляющих сигналов для вычислительной аппаратры. У RISC есть простейший декодер, который за два такта формирует управляющие сигналы.
И того у x86 есть декодер инструкций, микрокод, архитектура предсказаний, многоуровневые длинные конвейеры. И все это занимает огромную часть кристалла, и все это потребляет энергию на каждом такте.
То что делает эта аппаратура x86 , для VLIW и RISC делает компилятор на этапе сборки программы, один раз. За счет этого количество транзисторов у RISC значительно меньше при той же производительности. За счет этого RISC потребляет значительно меньше энергии на выполнение того же объема вычислений.
Да, за это приходится платить размером программы, и во времена 16 битных и 32 битных процессоров это было весомым преимуществом архитектуры x86. В те времена программа для RISC была в разы больше. Но во времена 64 битных процессоров, разница в объеме кода стала несущественной. И сейчас объем кода в любой программе в сотни и более раз меньше чем объем статических данных в программе, так что двадцати процентная разница в объеме исполняемого кода роли не играет

В высокопроизводительных RISC тоже достаточно длинные конвееры и есть предсказатели переходов.

Вы пересказываете оторванную от жизни теорию. Ещё и мешаете в кучу "конелюдей" (RISC и VLIW).

Конкретно у Итаниума было 128-битное машинное слово, в которое можно было запихать 2-3-4 инструкции, которые выполнялись "одновременно". И вот эти правила - что с чем можно паковать в одно слово, а с чем нет - были далеко не тривиальны. Поэтому, собственно, EPIC.

Декодер, как вы понимаете, там тоже был весьма замороченным.

VLIW там может и существовал, но уже внутри процессора после декодера.

Проблема декодера не в том, что он огромный и жручий — он довольно-таки компактный, на ядре без кешей его сложно найти, чего уж говорить про полноценный снимок.
Проблема в самом CISC-подходе: нельзя взять и загрузить всю кеш-линию в серию декодеров as-is, чтобы они одновременно начали декодировать инструкции. Пока первая инструкция не пройдет несколько этапов декодирования — неясно, откуда начинать следующему простаивающему декодеру. Чем больше времени займет декодирование, тем больше будут простаивать другие соседние конвейры.
Частично это нивелируется большей сложностью самих инструкций (одна Complex Instruction может заменить две-три Restricted Instruction), частично усиливается большей длиной и сложностью конвейра.
В результате получается сложно, трудно для понимания — а значит и для сложнее для внесения изменений, и с гарантированными простоями, компенсировать которые можно только еще более усложняя инструкции.

Нет неразрешимых проблем в том, чтобы обнаруживать границы команд до их полной обработки декодерами. Другое дело, что сложность этого процесса сильно зависит от архитектуры. Так, для IA-32 это крайне сложный процесс (длина команды от 1 до 15 байтов, причём надо анализировать их подряд, пока не станет ясно, какова же итоговая длина), а для хоть изначальной Системы 360, хоть современного её потомка в лице z/Architecture -- элементарно (длина составляет 2, 4 или 6 байтов и задаётся двумя старшими битами самого первого байта кода команды). И декодирование выполняется именно сразу для нескольких команд, без этого попросту невозможно запускать на выполнение несколько команд одновременно, что делают все суперскалярные процессоры.

Про неразрешимые проблемы, требующие полного декодирования, никто и не говорил. Более того, это бы сделало второй декодер полностью бессмысленным.
Тем не менее, сама концепция CI предполагает, что пока 4 из 5 конвейров ждут первого — RI могут загружаться пачками в каждом такте во все 8.
С ними другая проблема — во-первых, накормить это чудовище (нужна ОЧЕНЬ быстрая память), а во-вторых — переварить все то, что способен выдать конвейерный банч. В частности, OoO имеет известную алгоритмическую сложность, регистровый файл подстановок (если используется) не бесконечен, и т.д. и т.п.

Предположим, что длина конвейра 20 стадий, и для определения адреса следующей инструкции нужно от 1 до 5 стадий, причем каждая стадия выполняется за 1 такт, а вычисление смещения для следующего конвейра может выполняться одновременно с очисткой первой стадии текущего, и занимает 1 такт. Тогда в самом идеальном случае следующий конвейр сможет запуститься через 3 1 (декодирование) + 1 (смещение) тактов (если кеш-линия не закончилась), а последний — через 10. В самом худшем, вероятно, конвейры 3, 4 и 5 останутся простаивать, ожидая, пока остальные не упрутся в зависимости по памяти и не встанут (вопрос префетчера пока опустим, для наглядности).
Таким образом, даже в идеальном случае будут пропуски, когда конвейр не занят новой инструкцией.

Этот не специалист в z, но выглядит так, словно в этом плане он существенно ближе к RISC, и его конвейры, теоретически, можно загрузить параллельно, если потратить N+1 тактов на чтение бит, кодирующих длину, и загрузку их (функции) в мультиплексор. Однако, проблема все еще на месте: что так, что эдак придется ждать.

Сильное заявление. Но арм для десктопов и ноутбуков как не было в продаже, так и нет. Ну, я имею в виду массовый сегмент, а не отдельные девайсы за 100500 денег. Да и с серверным сегментом тоже не особо хорошо - какую-то долю арм там откусил, но дальнейшие перспективы как-то не обнадеживают.

Причем про "щас придет арм и x86 кирдык" я слышу уже больше десяти лет - а всё как было, так и остаётся. Реальных железок за разумные деньги просто нет. Конкурировать с x86 некому.

За десять лет есть заметные изменения. Посмотрите, во-первых, долю смартфонов (зеленая), где сплошной ARM. Во-вторых, MacBook на M-процессорах это уже довольно массовые устройства и по цене они не сильно отличаются от виндовых ноутбуков своей категории. Не назвал бы их "отдельными девайсами". У MacOS доля в России за это же время подросла в два раза, и большинство как раз с M-процессорами. Это довольно большая ниша. И это только начало, переход тормозят Windows и ее обратная совместимость, но и там уже в последнее время начали появляться устройства.

На десктопе, конечно, преимущества не так очевидны, если питание от сети. Но, с другой стороны, посмотрите как сам десктоп сжимается.

Давайте начнем с того, что не-арм смартфонов не существует. Просто потому что тем, кто мог бы их делать - не дают соответствующие процессоры. Вспомним, например, Intel Atom, который планировали использовать в Windows Phone - и где это всё? Даже планшеты на винде по сути уже вымерли как класс - и не потому, что спроса нет, а потому что процессоров для них просто не делают. Новых моделей Atom'ов вообще уже давно нет, а старые тормозили ещё тогда, когда они только вышли, на сегодня их производительность совершенно ужасна.

Ну и AMD в мобильном рынке вообще не участвует. Она даже ноутбуками особо не хочет заниматься - выходят буквально единицы устройств, да и те днем с огнем не найти в продаже.

При этом на десктопах и ноутах всё прямо противоположно: арм просто не используется в каких-то заметных объемах. И я каждый год читаю статьи вида "новая Windows теперь ещё лучше поддерживает арм!" и "Щас Samsung новый арм-процессор для Windows выпустит на десктопах!". Но ничего не меняется - ни процессоров нет, ни железок для них. А единственный доступный вариант - это MS Surface, который стоит как крыло от Боинга. При том, что реально массово нужны железки ценой <30к руб.

Она даже ноутбуками особо не хочет заниматься - выходят буквально единицы устройств, да и те днем с огнем не найти в продаже.

Так-то оно так, но Ryzen 7840HS и его ИИ-клон 8845HS - объективно лучшие на сегодня процессоры для ноутбуков, с самой мощной в мире встроенной графикой (вполне себе игровое решение, кроме новейших ААА-игр), отличным теплопакетом и поддержкой памяти.

У АМД проблема не в мобильных процессорах, а в том, что устройства на них очень сложно найти и купить. Потому что в магазинах их просто нет - слишком мало их делают. И самих вариантов моделей тоже мало. Я неоднократно встречал вопросы об этом на том же Реддите, но ответов нет. АМД почему-то принципиально забивает на производство под рынок ноутбуков - и никто не знает, почему... В итоге - всё забито ноутами на Интел, у которых большие проблемы с температурой и автономностью на фоне АМД.

Нет свободных мощностей, на которых можно было бы выпустить больше мобильных чипов не в ущерб производству десктопных. Зачем ограничивать в корме курицу, несущую золотые яйца, ради второй курици, которая вероятно тоже будет их нести, но это не точно.

Выбор устройств на АМД просто маленький. Но даже из того, что есть не всегда можно выбрать то, что нужно. Какой-нибудь ноут на 16'' с Райзеном делает куча компаний https://www.eldorado.ru/c/noutbuki/f/amd-ryzen-7/diagonal-16-169/ а такие же, но на 17'' - уже в 3 раза меньше вариантов. При этом разрыв предложений с Интелами - в 2-3 раза.

Но всё это так, красивые циферки. Потому что как только начинаешь пытаться купить выбранное, то почему-то часто оказывается, что его просто нет в наличии и неизвестно когда будет. Приходится брать что-то другое, а не то, что хотелось.

Их очень легко и просто и найти и купить уже лет 5 как. Вал устройств по доступным ценам. Я весной продавал ленову на 4600u, которую покупал в 2020, в локдаун и пик кризиса полупроводников.

Прямо сейчас у меня просто в подборке ДНС валяется ноутов 5, так как думаю, что маме пора поменять ноут. Как-то весной не решились, но вот сейчас приедет и куплю. И это ноут по доступной цене.

Плюс там лежит ещё с десяток, которые я думаю взять себе, вторым, после мака. Хотя, может возьму платформер, чисто для оинуксовой лабы.

Их делают дофига и купить их прямо сейчас не проблема, в диапазоне от 50к до 300к.

Как владелец Интела подтверждаю. При батарее в 50 ватт, тянет до 2 часов. В режиме экономии, если прикрутить экран 2.5-3часа. Все. На работе АМД тянут около 8 часов и это покупались не дорогие машины. Диагонали одинаковые и батареи отличаются на 5 ватт.

Может, просто в рынках дело, и вы взяли какой-то один? Вот, наш самый большой продавец компуктеров в Чехии (alza):

простой взгляд на распределение процессоров для ноутбуков
простой взгляд на распределение процессоров для ноутбуков

А вот, полная картинка

Да, их меньше, но точно нельзя сказать, что их тяжелее найти и купить. Это модели, которые можно купить сейчас (не реселлер какой-нибудь).

Да как забивают-то? Apple тогда вообще вручную под заказ штучно выпускает)

Из крупных производителей только Dell игнорирует AMD, видимо мешают какие-то договорённости с Intel. Зато у Lenovo они на равных с 4000-й серии вышедшей 5 лет назад.

На десктопах доля ниже из-за недавнего появления интегрированной графики и более сырой управлялки (DASH вживую никто не видел).

Извините, я вас поправлю, но объективно лучшие уже полгода как Ryzen AI 9 HX 375. Хотя, конечно, на традиционные 10-15%, да и по цене есть вопросы, но в чистом виде лидер сменился

ну про пол года это вы преувеличили)

арм просто не используется в каких-то заметных объемах.

У мак устройств порядка 15% рынка. Вполне заметный объем.

При том, что реально массово нужны железки ценой <30к руб.

Ну мечтать конечно не вредно, но хотеть новое устройство за $300 в 2024 это не шибко продуктивно.

Маки - это те же мобильники, вид сбоку. Полностью своя платформа, у которой отсутствует проблема с поддержкой старого софта (Эппл его вовремя обновляет). При этом ОС на любом другом железе вы запустить не сможете. Т.е. как это можно считать конкурентом универсального x86?

Ну мечтать конечно не вредно, но хотеть новое устройство за $300 в 2024 это не шибко продуктивно.

Ну да, я ж должен покупать Surface на арме за 200-400к руб) Это прям офигенная альтернатива ПК на x86...

у которой отсутствует проблема с поддержкой старого софта

В смысле "отсутствует проблема"? На Apple Silicon у меня перестаёт работать 2/3 стимовой библиотеки.

Так стим - это не маковский софт же, им на него пофик. По сути, маки занимают узкую нишу, причем монопольную и альтернатив макам от эппла в ней не существует в природе. Это же не замена x86, как не крути.

Game Porting Toolkit попробуй, скорее всего с ней будет работать на 2/3 больше игр, чем на MacOS под Intel. Понятно, что это костыль, но он работает и работает хорошо.

А еще лучше Whisky (приятный интерфейс для Wine+GPTK с автоматической установкой) + Heroic Launcher (Epic Games / Steam для маков с автоматическим запуском через whisky)

Маки - это те же мобильники, вид сбоку

Ну так можно конечно получить любую долю, какая нравится. Если определять как захотелось.

 Т.е. как это можно считать конкурентом универсального x86?

Легко можно считать. Разрабатываю на нем и не вижу не решаемых проблем или где бы он был хуже чем х86. Ни одной задачи кроме игр.

Тут игровой на x86 конечно будет получше, но он будет подороже и сильно тяжелее, да и батарея явно не сравнится.

Это прям офигенная альтернатива ПК на x86...

Да причем тут альтернатива. Вы никакую альтернативу в данном сегменте не найдете кроме Б/У, x86 или arm не важно. Либо ноунейм китаец + i3, либо не-ноунейм китаец lenovo + celeron. Хз что лучше.

Ну проблема маков в том, что их делает ровно одна компания. Сегодня она есть, завтра померла - и всё, маков не станет. x86 делает десяток разных компаний, даже если Интел завтра помрет - x86 будет жить дальше. Именно поэтому я считаю, что мак - не конкурент x86.

Ну и отношение игровых компаний к макам. Проблемы с маками же не только в видеокартах (которые для них лидеры рынка просто не делают), а и в самих играх, которые в маки попадают по остаточному принципу или если разработчику что-то в голову стукнет. Это какой-то странный "конкурент" (существующий десятки лет, не новичок!), на которого часть компаний просто принципиально забивает...

Разрабатываю на нем и не вижу не решаемых проблем или где бы он был хуже чем х86.

Никто и не говорил, что арм - хуже x86. Я говорил о том, что арм, по факту, не может заменить x86 еще и потому, что его или физически нет в продаже, или продается за совершенно неразумные деньги. Маки тут как раз наглядно это и демонстрируют, со своими бешенными ценами. И ладно маки - но Винда до сих пор занимает бОльшую часть рынка десктопов, при этом запускать на армах её просто негде, никаких арм-устройств нет в продаже за исключением Surface.

Да причем тут альтернатива. Вы никакую альтернативу в данном сегменте не найдете кроме Б/У, x86 или arm не важно. Либо ноунейм китаец + i3, либо не-ноунейм китаец lenovo + celeron. Хз что лучше.

Ну лет 10-15 назад была куча виндовых планшетов на Atom'ах N-серии. Но Интел просто перестала делать такие процессоры - и весь класс устройств просто вымер. Отсюда и такие цены на то, что осталось... Я так же полагаю, что и смерть нетбуков формфактора Eее PС тоже с этими процессорами связана. Проблема не в низком спросе, а в полнейшем отсутствии в продаже вообще хоть каких-то устройств.

Именно поэтому я считаю, что мак - не конкурент x86.

Так мак не может конкурентом х86 по определению, так же как и асус не может быть конкурентом ARM. Вчера они на х86 штамповали сегодня на arm. Довольно неплохой эксперимент, не будь его про арм на десктопах никто бы не заикался.

Маки тут как раз наглядно это и демонстрируют, со своими бешенными ценами.

Хз, ценник довольно вменяемый. Ноутбуки сопоставимые по весу, мощности, материалу корпуса, экрану, батарее будут стоить столько же. Найти ноутбуки дороже тоже ни разу не проблема.

никаких арм-устройств нет в продаже за исключением Surface.

Мы как бы уже третий комментарий подряд говорим про арм-устройства, не являющиеся Surface.

Ну лет 10-15 назад была куча виндовых планшетов на Atom'ах N-серии.

Ну пихать планшеты в сегмент ноутбуков это смелый ход. Планшеты в целом отмирают как сегмент.

  Я так же полагаю, что и смерть нетбуков формфактора Eее PС тоже с этими процессорами связана.  

Зачем продавать нетбуки если можно продавать ультрабуки? Маржинальность выше. Самые маленькие ноутбуки не обязательно самые дешевые, как пример GPD 3. Вот и разгадка почему они отмирали.

А в сегменте супердешевизны есть хромбуки, они вытеснили все эти eee и прочее. Пользоваться этим конечно сомнительно но если уж нужно максимально дешево.

Я не считаю, что между Surface и Mac есть какое-то существенное отличие. И то и это - дорогие нишевые устройства "для элиты". В то же время главное преимущество ПК - широкий диапазон стоимости и вариантов конфигураций (чего арм лишен напрочь, там всё железо прибито гвоздиками ещё на заводе).

Т.е. с моей точки зрения, сейчас арм проигрывает x86 практически по всем:

  • нет поддержки самой распространенной ОС и нет поддержки старого софта этой ОС

  • толком нет вариантов железок, выбирать особо не из чего

  • а то, что есть - стоит значительно дороже x86

  • при этом зачастую или не отличается производительностью или заметно хуже. Редкие исключения (типа как с новыми процессорами на маках) - нишевые, работают не везде и не при вяских условиях

  • всё это в условиях закрытой платформы и закрытых необновляющихся драйверов (точнее, они обновляются только при покупке нового железа)

Грубо говоря, покупая арм я теряю больше, чем получаю.

Ну пихать планшеты в сегмент ноутбуков это смелый ход. Планшеты в целом отмирают как сегмент.

Планшеты вполне себе живы. У них специфическая ниша, которую нечем заменить: телефоны маленькие, а ноутбуки неудобны. В принципе, ноутбуки с отстегивающимся экраном могли бы заменить планшеты, но при их цене - вообще без шансов. И опять-таки, про винду: существенная проблема планшетов в том, что на них хуже работает софт, заточенный под телефоны и при этом отсутствует старый софт с винды. Получается и ни туды и ни сюды...

Зачем продавать нетбуки если можно продавать ультрабуки? Маржинальность выше. Самые маленькие ноутбуки не обязательно самые дешевые, как пример GPD 3. Вот и разгадка почему они отмирали.

Ну я и говорю, проблема в ценах. Мало кто купит микрокомпьютер-игрушку за 100к руб, зато точно такого же размера дешевый для работы/поездок - многие бы купили. Но таких больше нет.

А в сегменте супердешевизны есть хромбуки, они вытеснили все эти eee и прочее. Пользоваться этим конечно сомнительно но если уж нужно максимально дешево.

Не знаю... Мне они кажутся скорее попыткой сделать "второй эппл" с макбуками. Какая-то сильно ограниченная платформа, жестко прибитая к одному производителю ОС. Ну т.е. опять-таки это всё не конкурент x86 в смысле массовости. Какую-то часть рынка оно, несомненно, откушало на себя, но...

В то же время главное преимущество ПК - широкий диапазон стоимости и вариантов конфигураций (чего арм лишен напрочь, там всё железо прибито гвоздиками ещё на заводе).

Большая часть ноутбуков сейчас такие, вне зависимости арм или не арм.

  • нет поддержки самой распространенной ОС и нет поддержки старого софта этой ОС.

  • толком нет вариантов железок, выбирать особо не из чего

  • а то, что есть - стоит значительно дороже x86

  • при этом зачастую или не отличается производительностью или заметно хуже. Редкие исключения (типа как с новыми процессорами на маках) - нишевые, работают не везде и не при вяских условиях

  • всё это в условиях закрытой платформы и закрытых необновляющихся драйверов (точнее, они обновляются только при покупке нового железа)

1) Верно.

2) Верно.

3) Не верно.

4) Отличаются в лучшую сторону и довольно сильно. И в плане мощности и в плане батареи.

5) Верно.

Ну я и говорю, проблема в ценах.

Проблема в том что вы сводите два разных признака в один: ценник и форм-фактор. Производители давно смекнули это и начали окучивать ниши порознь.

Что бы одновременно оба признака совпадали то это хромбуки. Но вы от них нос воротите.

Я не считаю, что между Surface и Mac есть какое-то существенное отличие.

Видимо с вашим опытом использования ПК разница не заметна, но на мой взгляд, она огромна. Многие разработчики используют MAC как рабочую машину. Дизайнеры тоже. Со случаями разработки на Surface мне сталкиваться не приходилось. При этом если говорить о работе в фотошопе, или о мобильной разработке на DART или о каком-нибудь веб, то использование MAC это просто вопрос удобства и привычки. А вот для iOS разработки мак безальтернативен. Все упирается в вопрос на какой платформе работает то ПО с которым вам надо работать.

Ну там следующее же предложение обосновывало)

Я не считаю, что между Surface и Mac есть какое-то существенное отличие. И то и это - дорогие нишевые устройства "для элиты"

Проблема в маках не в том, что там арм - а в том, что стоят они очень дорого. Причем даже десктопы - тут маки вообще с x86 конкурировать по цене не смогут, ибо слабенький комп можно собрать за 40-60 тыс (можно и ещё дешевле, в приниципе).

Со случаями разработки на Surface мне сталкиваться не приходилось.

Ну, логично - они ж не для этого.

А вот для iOS разработки мак безальтернативен.

Ну дык Эппл сделали всё, чтобы вы не могли разрабатывать вовне платформы. Когда там Safari под винду последний раз обновлялся? 15 лет уже прошло, не?

Mac mini m2 от 60т стоит, можно и комфортно в дотку поиграть, и даже симс (и нативно и через эмулятор виски). Вроде даже вполне сносно в бг3, но это уже я не пробовал. Причему умещается это все чуть ли не в карман. Какие именно устройства от mac для вас не могут конкурировать с десктопами с х86?

Ну проблема маков в том, что их делает ровно одна компания. Сегодня она есть, завтра померла - и всё, маков не станет. x86 делает десяток разных компаний, даже если Интел завтра помрет - x86 будет жить дальше. 

Вы какую-то ерунду несете. x86 компаний де-факто, две: интел и амд, остальные занимают очень узкие ниши вроде слабых процессоров для станков. Заменить условный i9 последних поколений можно аналогом от амд, и.. и все.

А вот мощные армы делает реально десяток компаний — от гугла и до китайцев. Оно менее стандартное, чем x86, но везде запускается линукс и переезд с одного производителя на другого зачастую не сложнее, чем с интела на амд. Зоопарк больше, да.

Топовых x86 - две. А так-то еще с десяток мелких есть, там процы, конечно, очень сильно похуже, но знамя они подхватят, если что. Плюс куча независимых производителей железа под платформу на все случаи жизни.

А вот без Эппла - макбуки станут просто электронным мусором. Потому что там железо делает Эппл, софт пишет Эппл, ОС пишет Эппл и драйвера пишет она же.

Заменить условный i9 последних поколений можно аналогом от амд, и.. и все.

Но при этом вы сегодня можете купить широкий диапазон вариантов процессоров - включая старые поколения. А у Эппла поддержка старого отсутствует. Потому что "надо еще больше золота, милорд!", а не по техническим причинам. Т.е. там выбор только между "дорого", "очень дорого" и "старое, пора выкидывать".

А вот мощные армы делает реально десяток компаний — от гугла и до китайцев.

Ага. Вот только это специализированное железо не для всех. Либо смартфоны/планшеты, либо спец.железо для датацентров. А вот аналог домашнего ПК - пока только у Эппла с макбуками. Нет тут борьбы между x86 и армами - армы на эту битву просто не пришли.

Топовых x86 - две. А так-то еще с десяток мелких есть, там процы, конечно, очень сильно похуже, но знамя они подхватят, если что. Плюс куча независимых производителей железа под платформу на все случаи жизни.

Не подхватят. Там такой разрыв в производительности между ними и топовыми x86, что десяток лет уйдет. А армы уже сейчас по производительности конкурируют

А вот без Эппла - макбуки станут просто электронным мусором. Потому что там железо делает Эппл, софт пишет Эппл, ОС пишет Эппл и драйвера пишет она же.

Я не понимаю, почему вы закрытость платформы одного производителя пытаетесь аргументировать несостоятельность арм-процессоров? Ну вот у производителя телефонов Х наглухо закрытый бутлоадер, который не взломать. Это как-то ставит крест на арм-процессорах для телефонов? Нифига. Ну не поставляет эппл процессоры, не дает документации, даже запущенный линукс на них через кровь, боль и реверс-инжиниринг. Так и что? Это просто означает, что никто не рассматривает эппловские процессоры как базу для своего продукта.

А вот аналог домашнего ПК - пока только у Эппла с макбуками. Нет тут борьбы между x86 и армами - армы на эту битву просто не пришли.

Ну, сейчас да. Отрасль инерционна, софтовая поддержка плохая, все предпочитают снимать сливки с мобильных устройств и серверов.

Речь-то о том, что нет никакой причины, почему х86 не сдаст позиции армам через 2/5/10 лет. Если 10 лет назад это было очевидно — есть слабые процессоры для телефонов и есть нормальные для компов, то сейчас производительность сравнялась, в этом плане конкурентное преимущество исчезло.

А у Эппла поддержка старого отсутствует. Потому что "надо еще больше золота, милорд!", а не по техническим причинам. Т.е. там выбор только между "дорого", "очень дорого" и "старое, пора выкидывать".

Да не, скорее "очень дорого, последние поколения", "цена выше средней по рынку, но обновляться будет еще 2-4 года", "старье, годное только в некоторых случаях". Типа, сейчас pro m1 14 стоит в районе 70-100к, и это немногим дороже ноутов со сравнимыми характеристиками, а обновляться он будет еще года 3-4.

Вот только это специализированное железо не для всех. Либо смартфоны/планшеты, либо спец.железо для датацентров. А вот аналог домашнего ПК - пока только у Эппла с макбуками.

Спешу Вас огорчить - пока единичные, но конкуренты уже появляются.

Ну лет 10-15 назад была куча виндовых планшетов на Atom'ах N-серии. Но Интел просто перестала делать такие процессоры - и весь класс устройств просто вымер.

О чём вы вообще, рынок завален ноутбуками, convertable и мини-ПК на N95/N97/N100. Ренессанс.

Винда до сих пор занимает бОльшую часть рынка десктопов, при этом запускать на армах её просто негде, никаких арм-устройств нет в продаже за исключением Surface.

Еще Lenovo, Samsung. Меня несколько раз спрашивали про goodbyedpi под Windows ARM, а это софт с, может, 500 тысячами пользователей максимум. Это не гипотетическое пожелание, а люди на своих ARM-ноутбуках пытались запустить, и у них не заработало.

Ну как бэ эти N95/N97/N100 производительнее (незначительно, видеоядро в 4 раза производительнее) моего i5-2500, работают на тех же частотах, имеют столько же ядер при TDP ниже в 8 раз. Разве что линий раза в 2 меньше (зато PCIe 3.0, а не 2.0).

Легко можно считать. Разрабатываю на нем и не вижу не решаемых проблем или где бы он был хуже чем х86. Ни одной задачи кроме игр.

Проблема ARM в том что нет никакого стандарта на железную архитектуру, как в x86. Поэтому же и нельзя купить произвольный смартфон и накатить на него произвольный Android/Linux/etc. Вендоры допиливают ядро под каждое новое устройство вручную, в результате или нет апдейтов или они дорого стоят, нет универсального дистрибутива.

Сначала должна победить какая-то одна более-менее открытая архитектура, все начнут её штамповать, дистрибутивы ОС начнут её поддерживать. И вот тогда....

Проблема ARM в том что нет никакого стандарта на железную архитектуру, как в x86. Поэтому же и нельзя купить произвольный смартфон и накатить на него произвольный Android/Linux/etc.

Вы случайно с IBM PC не путаете? Он немножко параллелен x86, в чем можно убедиться хотя бы на примере макинтошей. Причем тут ARM или x86?

Возможно я неточно выразился, но надеюсь мысль понятна - ARM нужен более-менее универсальный железный интерфейс с ОС, чтобы можно было малой кровью добавлять поддержку новых устройств, как это происходит в мире x86.

Да, наверное какое-то подобие IBM PC, если хотите.

А то помимо телефонов без апдейтов, у нас появятся ещё ноуты, десктопы и сервера либо без апдейтов, либо с зашкаливающим ценником.

Так для этого надо возвращать патчи в ядро, и все.UEFI уже пришел на ARM. Дело только и исключительно в собаке на говнокоде сене.

Я конечно в код не смотрел, но думаю вендорам тоже не радостно всё это самостоятельно тянуть. Если бы можно было просто послать патч, давно послали бы.

Если про вендорские патчи под арм для ведроида, то это несколько лет как реализовано, емнип.
Только пользуется 1,5 землекопа (если вообще пользуется).

После реализации Project Treble (лет 7 назад, с появлением А8 Oreo) стало можно обновлять прошивку частично.
https://android-developers.googleblog.com/2017/05/here-comes-treble-modular-base-for.html

И вообще:

Project Treble разделяет низкоуровневые драйверы и остальную часть операционной системы, чтобы производители быстрее выпускали обновления. Для устройств с Android 8.0 Oreo «из коробки» поддержка Treble является обязательным условием, а для более старых смартфонов и планшетов опция доступна на выбор.

Пока надежда только на Snapdragon X, и не потому что Qualcom такие лапочки или одумались, а потому что Lenovo настояла

При чём тут вообще производители? Если бы апдейты Виндос или Линукс сначала шли производителям компьютеров, то у нас бы была бы такая же катастрофа и в мире x86.

А они и не тянут, бросают.
В итоге обновить ядро становится невозможно.

Ну вот, как решат проблему, у ARM появится шанс.

Дело только и исключительно в собаке на говнокоде сене.

Ну это социальная проблема, которая вполне может не решаться вообще десятилетиями. А может и в принципе не решаться. В конце-концов, IBM PC, он такой один - других открытых экосистема как-то даже особо не появилось.

С теоретико-игровой точки зрения, каждому мелкому производителю выгодно выпускать "кубик-рубик-монолит". Поэтому появление PC - это, скорее, чудо, связанное с тогдашними привычками IBM, чем закономерность.

Проблема ARM в том что нет никакого стандарта на железную архитектуру, как в x86

https://en.wikipedia.org/wiki/Server_Base_System_Architecture

Вендоры допиливают ядро под каждое новое устройство вручную, в результате или нет апдейтов или они дорого стоят, нет универсального дистрибутива

Поэтому же и нельзя купить произвольный смартфон и накатить на него произвольный Android/Linux/etc

Вы путаете причину со следствием.

В x86-мире процессоры делаются преимущественно для десктопов/лаптопов на Windows и серверов на Linux. Производитель процессоров пишет драйверы для этих ОС, добивается их интеграции в дистрибутивы (в Ubuntu есть отдельные OEM-ядра от каждого крупного производителя), удостоверяется, что вся периферия чипсета, совместимого с процессором, работает должным образом. И в случае с Windows, и в случае с Linux, производитель может разработать и поставлять драйверы независимо от Microsoft, ядра Linux и разработчиков дистрибутивов, но это менее удобно и ему, и конечным потребителям, особенно в Linux: добавив поддержку своего железа в ядро официально, все новые изменения, приходящие от сторонних людей, должны быть совместимы с уже существующим кодом, и ответственность обеспечить совместимость нового кода лежит на том, кто его добавляет.

В случае с ARM-процессоры для смартфонов разрабатываются… для смартфонов. Google поставляет модифицированное ядро Linux, определённой версии, со своими патчами под Android, и производитель добавляет поддержку своего железа в эту версию.
Только Google, в отличие от людей, разрабатывающих ядро Linux, не осуществляет поддержку дополнительного кода. Переложить задачу на обеспечение совместимости вашего текущего кода с более новыми версиями Android-ядра не на кого. Вышла новая версия Android, требующая новой версии ядра? Будь добр, производитель процессоров, адаптируй свой референсный код и под ядро, и под Android.
Для процессоров, спроектированных под смартфоны, задачи обеспечения совместимости с Windows и Linux не ставится — они создаются не под эти задачи.

В случае с ARM-процессорами для серверов задача ставится точно такая же, как и в случае x86-процессоров. Байкал, Huawei Taishan, Amazon Graviton — все загружают обычные ubuntu iso arm64 с официального сайта через UEFI с флешки, процесс с точки зрения пользователя от x86 не отличается.

Переложить задачу на обеспечение совместимости вашего текущего кода с более новыми версиями Android-ядра не на кого

Ну так производители SOCов редко когда что выкложат в открытый доступ. Даже если бы кто-то захотел помочь с поддержкой, он просто не сможет эти спокойно заняться.

Google поставляет модифицированное ядро Linux, определённой версии, со своими патчами под Android, и производитель добавляет поддержку своего железа в эту версию.

Почему так? Почему модификации от Гугла не попадают в основную ветку?

В случае с ARM-процессорами для серверов задача ставится точно такая же, как и в случае x86-процессоров. Байкал, Huawei Taishan, Amazon Graviton — все загружают обычные ubuntu iso arm64 с официального сайта через UEFI с флешки, процесс с точки зрения пользователя от x86 не отличается.

А что мешает использовать серверную архитектуру (или её усечённую производную) в телефоне?

Или почему не создали подобную архитектуру для смартфонов?

В общем, если архитектура для ARM подобная PC получит распространение, это действительно может подорвать господство x86

Google (как и Microsoft) требует от производителя процессоров соблюдения определённых требований платформы, в частности, в плане безопасности.

Android поставляется с собственной эталонной реализацией всех этапов загрузки: littlekernel, fastboot, стандартов доверенной загрузки, разблокировки загрузчика, и т.п, и не требует поддержки ACPI. Производителю процессоров достаточно взять существующий код и добавить поддержку своего SoC.

UEFI-загрузка (и ACPI) приниципиально поддерживается, но реализации для неё нет. Производителю процессоров потребуется взять сторонний UEFI (открытый код TianoCore / лицензировать у Phoenix/AMI/кто там еще), написать сложный код ACPI (в котором ошибается даже Intel) вместо простого описания компонентов в DeviceTree, собственными силами напрограммировать и отладить все этапы загрузки, чтобы соответствовать требованиям платформы.

Если производитель наперёд знает, что чип будет использоваться только в смартфонах, ТВ-приставках и другом оборудовании на Android, нет никакого смысла идти против эталонных рекомендаций — это привнесёт ошибки, уязвимости, усложнит и удорожит разработку, с абсолютно нулевой разницей для конечного потребителя (а скорее всего, даже замедлит включение телефона из-за сложности UEFI).

Так как Windows on ARM требует UEFI+ACPI, последние процессоры от Qualcomm используют UEFI уже и на телефонах. Только ACPI-код заточен под Windows и никем не тестировался на Linux, он и не работает. Qualcomm работает над поддержкой Linux для самых свежих WoA-процессоров, но даже текущий roadmap содержит UEFI+DT, а не ACPI.

Только что нашел совсем свежую презентацию (сентябрь 2024) разработчика из Google, который описывает реализацию Android Generic Boot Loader поверх UEFI. Видимо, работы над этим ведутся.

Generic bootloader (GBL) is Android boot flow UEFI application provided by Google.
Provide production ready open source Android boot flow reference implementation

Почему так? Почему модификации от Гугла не попадают в основную ветку?

Потому что ядро Android использует собственные подсистемы, отсутствующие в Linux, и не нужные в мейнлайне. Ранее также были особые оптимизации конкретно под телефоны, сейчас уже не уверен. Многое, что было полезно и можно было перенести в Linux, перенесли.

AOSP common kernels (also known as the Android common kernels or ACKs) are downstream of kernel.org kernels and include patches of interest to the Android community that haven't been merged into mainline or Long Term Supported (LTS) kernels. These patches can include:

  • Backports and cherry-picks of upstream functionality needed for Android features

  • Features ready for Android devices but still under development upstream

  • Vendor/OEM features that are useful for other ecosystem partners

https://source.android.com/docs/core/architecture/kernel/android-common

Потому что ядро Android использует собственные подсистемы, отсутствующие в Linux, и не нужные в мейнлайне.

Здесь не совсем понятно. Кому не нужные? Андроид используется по всему миру. В ядре есть прекрасная система модулей, всё "ненужное" можно вынести в модуль и отключить.

Или почему не создали подобную архитектуру для смартфонов?

Потому что Android это операционная система для бытовых приборов, а не персональных компьютеров. В бытовом приборе у пользователя нет возможности ни переустановить ОС, ни изменить низкоуровневые компоненты, ни заменить одну деталь на другую.

Операционные системы для персональных компьютеров поставляются сторонними организациями, не относящимися к сборщику компьютера, поставщику материнской платы или процессора. Все производители компонентов должны написать драйверы под Windows, сертифицировать их у Microsoft электронной подписью, и удостовериться, что их устройство нормально работает, в идеале на любом компьютере. Вы, пользователь, покупаете копию операционной системы у компании.

Операционная система для бытового прибора идёт в составе прибора и поставляется производителем прибора. Производителю электронных компонентов не нужно связываться с создателями операционных систем, он пишет драйвер для Linux и передаёт его заинтересованному производителю прибора напрямую (а иногда поставляет только железо, и драйвер необходимо сделать производителю прибора).

Потому что Android это операционная система для бытовых приборов, а не персональных компьютеров.

Это весьма условное деление. И хотя пользователю действительно редко нужно заменить компоненты смартфона на альтернативные, то вот уже переустановка и обновление ОС - вполне логичное и востребованное действие.

Особенно востребованное для многочисленных китайских смартфонов, для которых обновления не выходят никогда.

Нет, переустановка и обновление ОС на телефонах обычно менеджится производителем телефона, а не пользователем.

Именно производитель говорит на каких телефонах до какой версии можно обновиться, какие патчи ставить.

Пользователю не доступно администрирование телефона, и Jailbreak это нештатная операция.

Да, об этом и речь. Эта схема не работает, телефоны не обновляются. Кто виноват в этом больше, ARM, Гугл, производители SOC или собиратели смартфонов я не знаю. Скорее всего все вместе.

Идеология виновата, как прекрасно расписал комментатор выше. У холодильника прошивка тоже ведь принципиально не обновляется (за некоторыми исключениями).

Именно. Сюда же можно подключить Apple с его стремлением и относительными успехами сделать из универсального компьютера бытовой прибор. Хотя, конечно, лучше всего получилось именно с iPad и iPhone.

Здравствуйте. Нашёл вас по посту о soft ether. Коллега настоятельно предлагает подключиться к его ВПН на soft ether. Случаем, не знаете, может ли он смотреть мой трафик? Стоит ли беспокоиться о безопасности?

Т.е. как это можно считать конкурентом универсального x86

Почему нет? В случае когда задачи выполняет все те же и ничем не хуже, то пользователю на какую то там "универсальность х86" глубоко пофиг

Ага, помимо телефонов без апдейтов, получим десктопы, ноуты и сервера без апдейтов. Пользователям конечно пофиг, но не до такой степени.

PC на компонентах 2012 года работает под управлением актуального ядра Linux и позволяет запускать актуальный софт, а вот роутер того же года недавно пришлось заменить не потому, что железо физически не справляется, а потому, что ядро обновить уже невозможно, а вместе с ним по цепочке зависимостей перестал собираться, или требует значительных затрат на допиливание бэкпортов - актуальный софт.

Как то шустро с десктопов на роутеры перешли, которые в принципе изначально не подразумевают работу с прикладным софтом и не затачиваются под какую то совместимость (и которые 99% людей не обновляют вообще), ну да ладно

перестал собираться, или требует значительных затрат на допиливание бэкпортов - актуальный софт.

А какой?

Да почти весь. Ну, например, хотел IP-камеру с H.265 прикрутить к motion. Старая версия ни про какой H.265, разумеется, не слышала. По цепочке зависимостей упёрся в заголовки ядра, ещё немного покопался и забросил это дело до обновления железки.

При том, на старом PC, на свежем ядре, разумеется, та же настройка motion заняла несколько минут, из которых больше всего ушло на ожидание загрузки пакетов из сети.

А получалось обновлять, например, dnscrypt-proxy, потому что он написан на Go и статически слинкован вплоть до собственной реализации сетевого стека.

---

Так вот суть-то в том, что страшно, если мир десктопов станет таким же: 10 лет и исправно работающее железо нужно менять просто потому, что софт перестал нормально обновляться.

 Ну, например, хотел IP-камеру с H.265 прикрутить к motion.

Мне странно слышать, что кто-то из роутера пытается сделать DVR. Возможно, потому, что покупая роутер, я покупаю роутер, а не некий универсальный комбайн - у меня и свитч с PoE отдельный, и DVR, и медиа-сервер - люблю атомарность - тогда отказ любого устройства не приведёт к выходу из строя всех систем в доме, а в случае полного выхода из строя, замена на аналог не повлечёт значительных финансовых затрат (и минимизирует трудности по совместимости).

На DNS в разделе "ноутбуки с процессором AMD" 211 позиций, против 595 "ноутбуки с процессором Intel". 25% предложений -- не похоже на "вообще не найдешь", или я не то смотрю?

Ну так я и говорю же - выбор на АМД изначально меньше. И из того, что есть - часть компаний-производителей вообще отсутствует (просто не делают и всё), а у части - вариативность меньше, чем на Интелах.

И я уже упоминал - помимо названий моделей, надо и на наличие смотреть. Потому что куча всякого ноутбучного на АМД запускается только на бумаге. Его невозможно купить, потому что этого просто нет в наличии в магазинах - не только у нас, а вообще в целом по миру. Я периодически амдшный реддит читаю, так там регулярно ноют на эту тему и американцы, и европейцы - особенно, когда на волне хайпа/маркетинга хотят какой-нибудь разрекламированный мобильный процессор конкретной модели что бы был в девайсе.

Мне кажется это не так. Тоже самое, утрируя, я могу сказать про интел - они до сих пор продают ноутбуки на 5-ти летних пентиумах и целеронах, да и 8250U в продаже до сих пор распродаются. АМД меньше представлены на рынке ровно в той же пропорции, какую общую долю рынка они отхватили, и от года к году их все больше.
Но можно смотреть и с другой стороны:
Лучшая встроенная графика для портативных систем за ними - люди скупают ультрабуки на встройках АМД - поэтому их завозить не успевают, раскупают как горячие пирожки. А интелом завалены полки и он никому не нужен. (это не совсем так, но ради абсурда представим, что так)
Наличие товара на полках - не всегда показатель его успешности/массовости/востребованности)

Да нормально с RISC процессорами для десктопов. Китай давно и массово производит свои компьютеры на RISC под свою операционную систему на базе линукса. И уже много лет как он избавляются от x86 в любом виде. При чем эти компьютеры и процессоры запрещены к вывозу из Китая. Это не супер производительные компьютеры, а как раз массовые рабочие компьютеры для обычных офисных задач.
x86 в мобильных устройствах нет по вполне определенным причинам, ты не захочешь иметь телефон который разряжает батарею в два раза быстрей. и причина этого в самой архитектуре x86

При том, что реально массово нужны железки ценой <30к руб.

Берете TV-приставку за 10к -- 15к, ставите на нее линкус и вот обычный офисный компьютер. x86 актуален только для виндовс. Вот и RISC дешевле 30к рублей.

AMD не присутствует на рынке смартфонов, но на рынке мобильных устройств очень даже. Ноутбуков выходит регулярно и много. Более того, выходят новые процы. И в этом году вышли.

А если вспомнить, что Steam Deck на AMD

Что касается ноутов - ну, небыло ниши для ARM, а старые процы просто не вывозили нагрузки. Вот, вышли первые снапдрагоны и они вполне. ДА, они только в дорогих устройствах, но многие с этого начинали. ДА, нужно ещё много шагов. Это Apple может позволить себе резкий мув, а остальные не могут, так как им надо дружить весь зоопарк устройств.

Как бы, пара лет, дойдут и до массового сегмента. Правда вряд-ли войдут в сегмент ниже 30к рублей - сейчас, по сути, нет устройств, дешевле 300 баксов, а массовый сегмент это 600-1000 баксов.

что Steam Deck на AMD

я бы на примере стимдека сразу весь класс подобных девайсов отметил. Стимдек причем на кастомном APU, а есть еще куча других "ноутбуков в форм-факторе консоли" на обычных ноутбучных APU, и интел среди них сливает со своей Xe встройкой

А единственный доступный вариант - это MS Surface, который стоит как крыло от Боинга.

Вот бы qualcomm x elite придумали... Я не говорю хороший он или плохой, но ноутбуков на нем чуть ли не больше чем на Ryzen. По крайней мере у некоторых интересных моделей версия на qualcomm есть, а на ryzen нет...

При том, что реально массово нужны железки ценой <30к руб.

А чего не 3к руб? Ноутбуков за рубли как-то вообще не густо делают, ноутбуки за 300 баксов или 2000 юаней конечно существуют, и наверно даже популярны в каких-то не очень богатых странах. Проблема в том, что на передовое современное железо в таких устройствах рассчитывать не приходится. Ну и производитель с них не очень зарабатывает. Вообщем такая нишевая история.

Даже планшеты на винде по сути уже вымерли как класс

У одних только Thinkpad: x220 Tablet, три поколения X1 Tablet, X12 Detachable, два поколения X1 Fold.
Прямо сейчас у каджита Dere T60 от китайцев, и всякоразных виндопланшетов у них — хоть попой ешь.

Впрочем, винда планшету действительно не нужна.

Но ничего не меняется - ни процессоров нет, ни железок для них. А единственный доступный вариант - это MS Surface, который стоит как крыло от Боинга. 

Huawei Matebook E Go - гдето 60-70к руб, на арме

Ну и AMD в мобильном рынке вообще не участвует. Она даже ноутбуками особо не хочет заниматься - выходят буквально единицы устройств, да и те днем с огнем не найти в продаже.

Магазины завалены ноутбуками, неттопами и моноблоками на мобильных APU от AMD. Портативные консоли туда же.

ноутах всё прямо противоположно: арм просто не используется в каких-то заметных объемах

С выходом маков на АРМ - все остальные intel-based маки перестали существовать. Эпл крайне удачно, вовремя и сразу с двух ног ворвались со своими АРМ ноутами.
Snapdragon X Elite выкатились сильно менее удачно, но я думаю они не остановятся на этом, и через пол годика мы увидим работу над ошибками

нужны железки ценой <30к руб.

что-то мне подсказывает, что смартфон на АРМ за <30к руб. разорвет в клочья х86 железку <30к руб =)

Топовый Samsung в виде FE серии, который можно найти за ~30тр, совсем не разрывает старый добрый комплект 6-20 ядерный Xeon за 5тр, включая матплату, проц и память.

Топовый Samsung в виде FE

они разные, один из них на снапдрагоне, второй на эксиносе - у них большая разница)

совсем не разрывает старый добрый комплект 6-20 ядерный Xeon за 5тр, включая матплату, проц и память.

вы еще видеокарту забыли, коли про зион упомянули. Да и в целом - выше речь шла про ноутбуки и портативные девайсы - покажете мне такой на 20 ядерном зионе с дискретной графикой, чтоб в геншин поиграть можно было?)

 включая матплату, проц и память.

А так же видюху, ssd, корпус, блок питания, экран и средства ввода.

Десктоп не так уж и сжимается - больше растет количество смартфонов, поэтому новости, реклама, мессенджеры будут подобные метрики выдавать. Если "прикинуть" подобные метрики для гитлаба, стима, ексель-ворда и прочего, тот там арма будет крайне мало, это просто неудобно. Десктоп всегда был для работы и для игр, сёрфить уже не так принципиально с какого устройства. Сменить платформу - значит сменить весь софт: невозможно адекватно эмулировать х86/x64 на арме, ядро гораздо сложнее и поддерживаемых инструкций на порядок больше - все это при эмуляции будет отжирать много процессорного времени. Сделать больше ядер с худшей производительностью на ядро - посмотрите старые ксеноны с Али. Со своими 24 потоками они рядом не стоят с 8 поточными ряженками.

Да мы и с бензином уже пол века расстаться не можем. Осталось подождать когда банкирам x-86 надоест)

Обладая огромным преимуществом в финансах, Интел могла бы все направления развивать и смотреть как оно пойдет. Не клади все яйца в одну корзину знает любой грамотный менеджер.

Просто чтобы закрыть отставание от tsmc нужно столько бабла, что даже пришлось кофе в офисах забрать((((

Мне вот понравился стиль статьи, даже опечатки несут налет поэтики. "Отсутствием гипертрейдинга" - это звучит.

Да ну, Пэт как раз не так плох.

Его главная заслуга - при нем решились перенести производство на TSMC. То, что AMD сделала еще в 2008 (отказалась от производства своими силами) Пэт воплощает прямо сейчас. Потом, новые Core Ultra. Судя по тестам, они едят в 2 раза меньше прошлого поколения, правда производительность временами правда странная.

Тем не менее, микроархитектуру нормально прокачали (особенно радуют энергоэффективные ядра и +1 АЛУ)

Я думаю еще полгода-год патчей и новые Core Ultra будут совсем ничего.

особенно радуют энергоэффективные ядра

да еще немного и станут лучше чем бульдозеры

Я про то что в этом поколении их прокачали: прирост на 60+% в операциях с плавающей точкой. Очень хочется посмотреть на реальных задачах, но звучит интересно.

я тестил е-ядра первого поколения из alder lake, они выдавали мощи, сопоставимые с обычными ядрами Coffee Lake Refresh, поэтому каким раком тут кукуруза из прошлого десятилетия, не совсем понятно. Видимо очевидная неудачная шутка из красного лагеря)

А как именно они разогнали до такое степени исходное ядро "Атома"? Ведь изначально разница в скорости там со Skylake была в несколько порядков. Вот, например, китайцы, которые мучают древние ядра VIA, обычно только обещают такие подвиги, но на практике со скоростью их работы все остается очень плохо.

со времен атомов почти 10 лет прошло, поэтому мне кажется, что чисто эволюционно за такой срок, энергоэффективные решения х86 догнали бы своих старших братьев, как это сделали ARM)

Могу ошибаться, но отставание по ядру Atom (P54) vs. Nehalem изначально было вроде бы порядка 7-кратного, ибо первый был близок к Pentium 1 без внеочередного выполнения операций, а второй-то собственно сильно апнутое ядро Pentium 3. С тех пор Атомы перевели на внеочередное исполнение операций (примерно в 2014 году), это пиарилось как революция, но реальные отзывы в те времена, которые я читал, описывали эффект от этого апгрейда ядра более сдержанно. Не знаю, что было дальше, хотелось бы узнать интересные подробности. Но считаю, что семикратный рост производительности на ядро это реально крайне впечатляющее достижение, если так посмотреть.

Перенос производства на Tsmc произошёл до Гелсингера

Разве? Первыми были Meteor Lake, а они вышли уже после 21 года (когда назначали Пэта). Ну может разрабатывать начали до него, но выпустили уже при нем.

Вы же понимаете, что цикл разработки процессора занимает несколько лет, и если он вышел в 2021-ом на Tsmc, то решение об использовании другой фабы было принято задолго до этого, тк разработка сильно привязана к конкретному техпроцессу

Да, конечно. Но Meteor Lake это конец 2023, а Пэт CEO с начала 2021.

В сентябре 2020 вышло 11 поколение, а Meteor lake уже 14.

Думаю их уже целиком при Пэте делали.

Никто не мешает делать замеры бенчмарков через умную розетку.

Кстати подскажите, какие из них могут строить графики вплоть до секунд ?

особенно радуют энергоэффективные ядра

Худшее архитектурное решение от синих за долгое время. И в винде, и в линуксе приходится или плясать с бубном вокруг шедулера и/или кернела, или отрубать их к чёрту. Е - это в лучшем случае Embarrassing. В итоге в личном парке я до сих пор сижу на 10-м и 12-м поколениях, а для мест, где важно энергопотребление, есть Е и T индексные процы, или вообще альтернативы в втже embedded или arm.

Я, кстати, до сих пор не могу понять, почему шедулер винды не сует в первую очередь на энергоэффективные ядра внутренние процессы ОС. Т.е. для меня выглядит логично скинуть на одно-два выделенных ядра весь постоянно работающий хлам, типа проверки почты, обновлений и т.п. вещей, а остальной софт крутить на полноценных процессорах...

А метку "хлам" на коде уже внедрили?
Вы может хлам почту проверять а у кого-то это может быть первоочередной инструмент для работы. И как тогда эти лейблы развесить? Пользователю отдать? И каждый пользователь должен с этим разбираться?

Ну во-первых, такое может сделать сама МС - она-то знает, где у неё не сильно важные по времени выполнения процессы, а где - нет. Во-вторых, да, почему бы и не дать программистам возможность помечать приоритетность процесса для размещения на нужных ядрах? Или дать возможность управлять этим пользователям? Без всяких вот этих приседаний с не-мс софтом, как сейчас.

Ну и вообще, у меня долгое время уже висит вопрос... Вот у нас есть процессор, там куча ядер - без нагрузки они снижают частоты или вообще выключаются. Экономим энергию, да и температуры ниже. Тут внезапно прибегает шедулер винды и их будит, чтобы загрузить ядро на 0,5-1%. Зачем? Нельзя весь этот малонагружающий "мусор" скинуть куда-то на одно ядро, а не будить и не греть какие попало? Причем сделать под такие процессы именно отдельное мелкое ядро с производительностью уровня Atom - им этого хватит с большим запасом.

Осталось только это все реализовать.
В ваших рассуждениях много логичного и правильного. Ну вот возьмите и запрограммируйте это. Ну в винду так планировщик linux можно MR сделать с этими предложениями.

Когда ОС вообще стала потреблять cpu? Мне сложно на вскидку вспомнить, какие вообще процессы винды способы хотя бы на 5% загрузить современный кпу. Ну разве что танцы с ReFS или если это хост нагруженного гипервизора (насколько это можно считать частью ОС).

Вычислительные ресурсы потребляет приклад и МС к нему отношения не имеет.

Так я о том и говорю - в системе куча фоновых процессов, которые толком не грузят процессор, но при этом просто не дают ядрам спать. Причем винда их ещё и постоянно рандомно перекидывает между ядрами. Вон, тот же QuickCPU умеет в реальном времени наглядно отображать состояние ядер (спит/не спит) - там эти процессы переключений прям наглядно наблюдаемы.

Т.е. я не про то, сколько эти фоновые задачи едят ресурсы (даже суммарно там копейки) - я про то, что они банально не дают спать ядрам из-за такой странной работы диспетчера процессов. В итоге процессор даже в простое зазря молотит на повышенных частотах, жрет электричество и греется.

Ну вообще i/o (диски и сеть) может неслабо так жрать проц. И даже жрёт. И часто это происходит именно в режиме ядря. То, что современные ОС вешают на графиках загрузки эти расходы на соответствующие процессы - это, ну, такая условность.

Если точнее, то это мониторинг показывает загрузку cpu, поскольку драйвера работают в режиме ядра, но под капотом процессоры часто просто в режиме ожидания и не греться, а top может показывать 100%

почему бы и не дать программистам возможность помечать приоритетность процесса для размещения на нужных ядрах

Предположу что потому, что все тут же кинутся ставить своему процессу максимальный приоритет, чтобы лагало поменьше и не приходилось пользователю объяснять что "это не у нас приложение тормозное, это ваш шедулер засунул его на медленное ядро".

все тут же кинутся ставить своему процессу максимальный приоритет,

какой командой это сделать на jquery react-e?

Ну во-первых, такое может сделать сама МС - она-то знает, где у неё не сильно важные по времени выполнения процессы, а где - нет.

По мнению МС, самые важные процессы в системе - это отображение рекламы в меню "пуск", отправка телеметрии, и автоматические обновления. Они-то на жирные ядра и поедут. А этот ваш солид воркс можно на маленькое ядро спихнуть.

Шутки шутками, а я год назад обновился с 4960 на 13700. Устанавливаю свой любимый ANSYS (прочностные расчёты), запускаю расчёт как было настроено в проекте, на 4 ядрах - прирост скорости раза в два по сравнению со старым камнем. Интересно, думаю, что будет, если на всех 8 ядрах в два потока запуститься - и ставлю в настройках расчёт на 16 cores. А он не идёт. Считает, но очень медленно, и камень почти не греется. Уменьшаю число ядер - работает нормально. Опытным путём выяснил, что если ставишь больше 12 ядер - то Винда вешает один из потоков на E-ядро, оно естественно не тянет, и все остальные потоки тормозятся. А ставишь 12 - красота, производительность та что надо.

И так я и не нашёл способа сделать так, чтобы Винда задействовала для ANSYS все 16 P-ядер, не трогая E-ядра.

В Task Manager раньше было возможно задать процессу core affinity. Если не Task Manager, то Process Explorer Руссиновича должен уметь. Думаю, это можно заскриптовать — ищем процессы считалки и вешаем на нужные ядра. А в крайнем случае E-cores можно и отключить.

Так дело ведь ещё и не в процессах! У расчётного процесса может быть N потоков, и надо, чтобы они были правильно раскиданы по P ядрам!

Тогда задача слегка усложняется, нужно будет найти все потоки нужного процесса, рассчитать, как раскидать их по ядрам, и вызвать для каждого потока SetThreadAffinityMask (https://learn.microsoft.com/en-us/windows/win32/api/winbase/nf-winbase-setthreadaffinitymask). Кстати, посчитайте, не выгоднее ли отключить Hyperthreading, чтобы сократить стоимость лицензии, если она у вас платная. Прирост от него для считалки, как правило, единицы процентов, а лицензировать иногда приходится в два раза больше ядер. У нас с LS-DYNA мы именно так и делаем.

Установить Affinity mask в диспетчере задач.
Когда там будет подобрана правильная маска — изменить ярлык, чтобы запускать через cmd /k 'start /affinity %PROGRAM%'

Неплохо бы ещё и возможность сообщать операционной системе, сколько процентов инструкций FPU у данной нити (thread), это для оптимального распределения нагрузки на процессор с SMT. После профилировки данная информация становится известной.

Да вся ОС в датчиках, можно налету мерять и собирать статистику. У нас же приложения не одноразовые, их рано или поздно повторно запустят.

И эта статистика полезна еще и для того, чтобы не бустить процессор, если ожидаемая нагрузка краткосрочная. А то у нас вечно 40 градусов - хлоп! - 95 градусов - хлоп! - 40 градусов. И не длительно, а за пару секунд туда-сюда. И все это ради того, чтобы запрос в интернет сделать для проверки не появилось ли обновление у программы - там вообще пофиг, если запрос даже на секунду дольше идти будет, зачем процессор до 5 Ггц бустить?

Да, и вынесли аж в диспетчер задач зеленым листочком.

Насколько я знаю, у E ядер набор инструкций меньше, чем у P. Может быть с этим как-то всё связано - якобы не все задачи могут выполняться на E. Либо есть затруднение в перекидывании задачи на E, если она уже была начата на P. Дескать проще было сразу начать на E. Однако начинание на E делается неохотно, т.к. шедулер не знает, насколько трудоёмкая задача предстоит и не хочет рисковать разозлить пользователя тормозами. Но всё это не точно.

вообще, до обновления на 11 винду, десятка наоборот грешила тем, что ресурсоемкие задачи вешала на E ядра. У меня 12700, там 1 блок на 4 ядра. И вот в игрушках молотили 4 ядра эти самые)

с точки зрения общей производительности E ядра более выгодные и по энергопотреблению и по расходу транзисторов

в тех задачах, где нужна пиковая производительность на одно ядро, хватает P ядер

а кривой планировщик это кривой планировщик. это можно решить.

Выгода по расходу транзисторов - это выгода производителя. Как потребитель я не стал платить меньше с появлением Е/Р процессоров. По энергопотреблению... возможно, но даже не затрагивая вопросы планировщика, на голом железе имеем:

i5-12400 (H0 степпинг, старый камень), ALPM on, ASPM on L1, C-States on C10 - 7 ватт в полном idle без дисков. С пятью дисками в idle, и двумя живыми NVMe - 18 ватт "из стены" c подключенной периферией и монитором без нагрузки. На homelab редддите есть темы, где народ не может опустить 13500 ниже 10 ватт в полном idle, а "из стены" в условиях, приближенных к описанным выше не падает ниже 28 ватт.

Не исключаю, что если капитально заморочиться и подобрать материнку, контроллеры и диски (а есть такие, которые блокируют систему в определённом C-state), то можно добиться схожих результатов (а потом упарываться по taskset -cp*). Но тут встаёт проблема буханки хлеба и троллейбуса - зачем, если есть или 12-е поколение, или райзен 7940HS, который на китайской маме CWWK выдаёт 6-7 ватт из коробки в idle.

Буду рад, если есть данные, что апгрейд поколения-другого с переходом к E/P ядрам объективно улучшает TCO (total cost of ownership) в потребительском сегменте, скажем, за счёт условно возросшей производительности.

4930k ivy bridge, 6 hdd, с 3070 в idle 100Вт из розетки, с 1060 80Вт.

Немного не понял к чему это, речь во-первых о другом юзкейсе, а во-вторых вообще не про видяхи.

К тому же, 3070 не раскрывается в паре с ivy bridge, если её грузануть по полной, она в соло съест 200 ватт и не подавится съесть ещё 20 сверху. Верхний порог TGP (не путать с TDP) у founder's edition до 225W [link]. У заряженных моделей, вот, например, только что снятые данные с 3070 при запущенной игре на максималках:

А если поставить Ivy Bridge-EP 14-ядерный (топовый), раскрывается или нет? А, например, топовые Haswell-EP и Broadwellß-EP насколько далеко от него ушли?

Если смотреть детально, то ответ будет зависеть от условий использования (игра, разрешение и т.п.). Вот, например, картинка использования в игре, движок которой умеет работать только в один поток. Карта в прыжке загружена на 45%, хоть всё и выкручено в "ультра" на 2К разрешении.

2024й на дворе, но Guild Wars 2 по-прежнему однопоточная
2024й на дворе, но Guild Wars 2 по-прежнему однопоточная

Вот движок пободрее и поновее нагружает проц и видяху, раскидывая потоки. Соответственно, подрастает и утилизация карты.

Throne and Liberty (Unreal Engine 5)
Throne and Liberty (Unreal Engine 5)

Возвращаясь к старым процам - зависит от игры и разрешения. Чем выше разрешение, тем больше работы заберёт на себя карта. В FullHD всё упрётся в проц. При этом играть в большинство тайтлов на обычном уровне всё равно будет вполне комфортно - связка 4930k+3070 вывезет почти все современные тайтлы.

Речь не про видяхи, речь про потребление всей системы в Idle, замер из розетки. И то, как смена видеокарты влияет на это потребление в Idle.

То что там выше намеряли 10 или 28Вт - это чисто по hwinfo или из розетки ?

Насколько менее жрущие в Idle современные платформы ? И что-то можно сделать, чтобы 3070 в Idle ела не 28Вт, а 8Вт, как 1060 ? Кривая андервольтинга там уже нарисована в Afterburner.

p.s. в игры не играю, видюха для Premiere, AE, Topaz Video AI.

Та же шняга, что и с Итанимумом. Должна быть норм софт поддержка - но ее нет.

Тоже поотключал у себя.

Спасибо за статью! Это как раз то, что было нужно, отвечает на все вопросы. Еще и вчера посмотрел видео от МК с разбором изменений в новой архитектуре процессоров Intel

Очень странная статья. Прямо написано, мол именно Пэт Гелсингер и тянет компанию вниз. Который пришел на пост в 2021 году. Хотя, у компании самое большое ЧП случилось в 2019 году, когда они остановили заводы для внедрения 10 нм процесса, но наладить производство не получилось. А так как "переход на техпроцесс" - результат многолетних трудов, то это и откинуло компанию на много лет назад. Отсюда и сравнительные успехи AMD, отсюда и горячие процессоры от Intel. Отсюда и заказы процессоров Intel на мощностях tsmc .... а потом пришел Пэт Гелсингер и "все разрушил". Да и в статье так и не прозвучало каков же процент брака процов 13-14 поколений .. главное, что "он промолчал".

Еще бы статья не странная.

В июле 2024 года Intel наконец признала, что главной проблемой стабильности послужило загрязнение производственной линии.

И сразу под этим английским по белому: "it is NOT related to the instability issue"

«Девальвации не будет. Это я заявляю твёрдо и чётко.»

Так главный вывод из статьи, насколько я понимаю, это то, что к интел рухнуло корпоративное доверие. Понятно, что интел бы заменяла неисправное оборудование по гарантии, но в крупном бизнесе нужна стабильность. А если у тебя сервера как семечки начинают сыпаться - это риски простоя, убытки и всё сопутствующее. И про эти риски интел молчала, фактически подставляя партнёров. А в бизнесе доверие принято ценить.

Интел проводила политику скрытия крупной проблемы проведение которой не могло не быть санкционировано личной главой корпорации. Гелсингер допустил огромный управленческий косяк, который корпорация до сих пор не исправила. Стратегия поведения - точ-в-точ как с боингом: только под напором неопровержимых фактов приходится нехотя признавать огромные проблемы. И происходит это всё так, что репутационные потери начинают серьёзно превышать те, которые бы были выпусти они какое-никакое коммюнике сразу при обнаружении чисто технической проблемы. Как только компания начинает скрывать или лгать - налицо серьезные проблемы в управлении. И работать с такой конторой - это риски.

Про потерянное доверие понятно и терять его стали до Гелсингера, а про то, что:

Интел проводила политику скрытия крупной проблемы проведение которой не могло не быть санкционировано личной главой корпорации.

простите, не поверю, такой вопрос не решается лично главой. Как? Без совета директоров?

Не стоит обесценивать главу как марионетку. Пошел бы на принцип - продавил бы своё решение. На него все надежды возлагали - можно было пользоваться. Он в принципе такой же технарь как и Келлер! Но один ушел когда не сработались, а другой - нет.

Вы немного не понимаете масштаб. То что будет сказано о проблеме публично - это лицо компании, это деньги инвесторов, это судьбы этих управленцев которые науправляли интелом до текущего момента. Большие деньги никогда не допустят ситуации, когда назначенный ими директор начнёт принимать решения касающиеся имиджа компании.

Вопрос - исключительно в личностных качествах управленца. Он либо молча соглашается с текущим положением, либо уходит в знак несогласия. Внешне всё это оформляется цивильно - последние топы в программе Apple по полноценному автопилоту больше года не работали, уходя то в Tesla, то в GM. В сложившейся ситуации Гелсингер виноват только в том, что не ушёл)

Интересно было бы капнуть к корпоративную структуру, культуру и проблемы в управлении компанией. Компания уволила большое количество "дорогих" специалистов - не было ли это как-то связано с трендом в плане успехов компании?
Вспоминаем историю, как в компании появились энергосберегающие процессоры - их разработка велась в режиме строгой секретности и в отдельном подразделении, про которое многие в самом Интеле тогда и не знали - возможно, что не все так просто.
И... возможно, причины лежат не на поверхности, а внутри компании.

Какой еще строгой секретности ? Ваша картина мира промыта слухами и конспирологией.

Никакой секретности, все было всегда на виду. Но гигагерцы продаются, пипл хавает и даже есть что-то лучше перевернуть рынок не просто.

Пэт вернулся в Интел в 2021-ом, а Джим Келлер покинул компанию в 2020-ом. Они не пересекались по работе. У чему все эти наезды на Гелсингера в части работы с Келлером, если это очевидная неправда?

Почему же неправда? Moore Law Is Dead когда-то про это рассказывал в числе прочего - ему об этом инсайды сообщали (которые у него, судя по всему, настоящие - ибо многое из прошлого, что они сливали, потом оказывалось правдой). Суть истории проста - Келлера наняли еще году в 2018 для дизайна совершенно новой архитектуры и ядра, которое получило название Golden Cove - там был 2х IPC и куда более эффективная система менеджмента кэша. В итоге Гелсингеру не понравились какие-то инженерные задумки Келлера (какие и почему - не уточняется), и Келлер был уволен. Даты, указанные в официальных источниках не самые точные. Далее уже сотрудники Intel (которые, как можно предположить, были частью команды разработки новой архитектуры), разрабатывали проект Beast Lake, но и он был закрыт по личному распоряжению Гелсингера.
Подробности крайны туманны, так как вся эта информация строго конфиденциальна. Нам известны лишь обрывки - детали мы если и узнаем, то позже, когда Гелсингер перестанет быть CEO Интела.

Почему я верю этой инфе - те же инсайдеры рассказывали про Battlemage еще до того, как про видеокарты Интела было что-то публично объявлено. Причем там были и спеки и производительность.

Каким образом Гелсингеру могло что-то не понравиться, если его в данный момент просто не было в Интеле? Физически не было. Келлер уволился из Интела ДО прихода Гелсингера

Гелсингер отменил много перспективных проектов Интел, в том числе разработки Келлера

А вы не видите разницы в утверждении:

"Гелсингер отменил много перспективных проектов Интел, в том числе разработки Келлера" и тем, что вы утверждали до этого, цитирую:

В итоге Гелсингеру не понравились какие-то инженерные задумки Келлера (какие и почему - не уточняется), и Келлер был уволен

...

Джим Келлер и Пэт Гелсингер не смогли найти общий язык в процессе работы над проектом

...

Вместо того, чтобы под началом Джима Келлера создать то самое «Королевское ядро» и открыть новую эру, не уступающую успеху Intel Core, он разругался с легендарным инженером

?

И я нашёл это видео, на базе которого вы написали статью. Всё, что в нём говорится - это то, что в начале этого года Гелсингер закрыл проект Royal Core, у истоков которого стоял Келлер. Даже это слухи, но можем считать их условно правдивыми. Но могу сразу сказать, что все рассказы про 2х IPC можно сразу воспринимать со скепсисом, ибо таких чудес не бывает. И концепция Rentable Units тоже очень спорная, у неё есть обратная сторона медали так сказать. И без кучи цифр на руках нельзя уверенно утвеждать, что это действительно та микроархитектура, которую стоит выводить на рынок. И может так статься, что Гелсингер прав в своём решении.

Все остальные утверждения про конфликт Келлера и Гелсингера и т.д. - это откровенная желтизна, не имеющая никаких доказательств и просто противоречащая таймингу физического пребывания каждого из них в Интеле. Не место такому в серьёзной статье на хабре, имхо.

Я вам сейчас пару слов как инсайдер расскажу. Я был архитектором Golden Cove а после и Lunar Lake / Arrow Lake так же как и нескольких следующих поколений. Параллельно в Орегоне ваяли новую вундервафлю под именем Royal. Не первую, за последние лет 15 наверно уже пятую или шестую.

Так вот вкратце- все, что вы когда-то либо слышали про Royal к нему никакого отношения не имеет. Все эти слухи про 2x IPC, супер навороченный Beast Lake и т.п. Дизайн группа в Орегоне была на грани развала и ей нужно было получить проэкт. И они придумали Royal. Расписали себе нереалистичные фантастические цели вроде 2xIPC при 1xPower за счёт 50% freq reduction и уговорили Джима Келлера на это подписаться. И понеслось. Через несколько лет работы было уже за километр видно, что ребёнок мертворожденный. То есть 2xIPC от Golden Cove оно на бумаге конечно показывало, но при 4x area и с проблемами на всех фронтах. Ну и со сроками появления в железе к концу 2026. К тому времени Golden Cove уже станет историей и конвенцональный наследник Golden Cove будет %% на 40 больше IPC. Если его конечно сделать. И Royal на его фоне уже не такая уж аттракция - 50% больше IPC, 50% frequency - то есть финальный performance same. Но не забываем про 4x area и про то, что весь Royal пока только на бумаге и выглядит как ненужная фантастика в половине решений, которые должны быть имплементированы.

Pat Gerlsinger как раз в этот Royal сильно верил, тянул мёртвую корову и болота посылая её деньгами даже когда сами инженеры Royal сказали, что не взлетит. Первый RTL прототип Royal с трудом натянул 20% IPC over Arгow Lake про почти вдвое большей площади кристалла и вдвое меньше частоте. При этом начальство Royal продолжало давить ту же линию - это же первый прототип, вы только дайте нам ещё 2 года и мы уже ух! Наваяем вам Royal 2 который Cobra Lake (слышали название? про него тоже слухов распустили) и будет там все чики-пуки, правда как мы не расскажем потому что мы ж ещё в симуляторе этот Royal 2 не закончили.

Причём альтернатива была простая. Похоронить этот Royal навиг и передать его design группу работать с Хайфой над main stream. А то они физически не могут выпускать больше 5-15% improvement в год, которых не хватает от слова никак - у ВСЕХ конкурентов прирост как минимум не меньше, у многих даже больше. То есть хочется 15% каждый год, а получается 15% а потом 5% потому что прошлый проэкт все ресурсы забирает. Для полноценной тик-ток схемы надо 2 дизайн группы, а у нас вторая Royal ваяет, её трогать нельзя, это любимый проэкт Pat Gelsinger, он же в него так верит!

Пока финансы не победили и прикрыть Royal пришлось, просто потому что деньги нужны. Вот только сколько времени было упущено.

И главное что самое весёлое- Royal прикрыли совсем не красиво, не свернув их работу и не подготовив инженеров к сюрпризу. То есть просто сообщили, что бабки на вас кончились и вас закрывают. Сидите спокойно, мы всем найдём новый проэкт - вон в GPU новый AI ускоритель хотят нагородить- пойдете все туда !

В результате главный архитектор Royal и ещё 5 architecture lead увольняются в один день и - добро пожаловать новый startup Ahead Computing !

AmpereOne знаете ? Они тоже так же начинались. Не умеет Интел удержать таланты...

Огромное спасибо за инсайд. Наверное, ради таких комментариев я и читаю хабр)

В общем, вы отлично описали суровую реальность дизайна High Performance CPU. Все эти сладкие рассказы про 2xIPC и Rentable Units сразу попахивали мифотворчеством.

Если позволите, можно вопрос? Как вы оцениваете Келлера как специалиста в дизайне High Performance ядер? У меня просто есть некоторые наблюдения со стороны, которые хотелось бы проверить.

У меня нет однозначного мнения, приезжал он к нам редко, в архитектуру не вмешивался. Хотя дизайн методологии пересмотрел и кое в чем сильно повлиял.

Дело в том, что до стагнации 10нм у Интел все было свое для своего техпроцесса. Свои CAD tools, свои методологии, даже свой диалект Verilog. А пока Интел был впереди планеты всей все это казалось необходимым для успешного успеха. Вот только за 5 лет отставания оказалось, что индустрия обгоняет Интел во всем. И synthesis tools у synopsis и cadence лучше доморощенных, и дизайн методологии устарели и вообще все выглядит как попытка на паровоза догнать соседнюю электричку.

И основное, что Джим Келлер сделал - это вставил кому надо и заставил Интел выкинуть старые методологии и design tools и перейти на industry standards. И первое ядро сделанное по этим industry standards это Lunar Lake. И снижение power почти вдвое в Lunar lake и Arrow Lake это в основном заслуга стандартных методологии и использования самых современных tools. И это ещё в Lion Cove не до конца все переписали, половина RTL осталась без существенных изменений.

С тулами всё понятно. А вот про методологии можно пару слов/примеров, в чём отличие у Интела было?

Любовь к latches и ручной разработки всяких блоков. И даже если блок супер регулярный как ROB или Store Buffer оказалось, что автоматические tools строят его ничуть не хуже.

У меня ещё такой вопрос. Насколько я понял, вы как раз занимались ООО и конкретно ренеймингом.

Допустим, мы ренеймим 6 операций за такт (примерно как в современных AMD/Intel, насколько я понимаю). В следующем чипе делаем ренейм на 8 операций за такт (смогли, неважно как, на той же частоте). При условии соответствующего увеличения ширины декодера и количества EXE-units, а также при условии неизменных branch predictor/prefetch юнитов(уровня современных интеловских), во сколько вы оцените улучшение по IPC на задачах класса SpecInt?

Вопрос у меня оттуда, что в таких задачах всё же параллельность самого кода достаточно ограничена. Есть ощущение, что само по себе увеличение увеличение ширины конвейера при таких размерах уже не должно давать заметных улучшений IPC.

Дает и еще как. До 16 как минимум можно увеличивать и прирост будет. Естейственно не сам по себе. Это как курица и яйцо. Можно добавить EXE-units и увеличить буфферы и это ничего не даст. Можно увеличить ширину и это тоже ничего не даст. А если сделать все вместе - и получишь прирост.

Из 15% прироста 7-8% приходят из ширины и глубины, а еще 7-8% от умных вещей вроде улучшений branch prediction, prefetching algorithms, load/store unit optimizations, memory renaming and etc.

Ясно. А какие вообщем самые сложные части ОоО ядра на ваш взгляд. BPU, Prefetch, Renaming - понятно. Остальное (по отдельности, конечно) проще? Или есть ещё больные места?

Все индивидуально. Кому-то MEU/LSU супер сложно. Кому-то IssueQ/Reservation Stations. Если есть эксперты - архитекторы, больных мест не будет вообще)

Если)

Спасибо за skill sharing. Так-то у меня миллион вопросов, жаль, лично такое не обсудить)

Эх, я уже много лет мечтаю прочитать рассказ о внутренней кухне Моторолы тех времен, когда они окончательно похоронили архитектуру 68k. Кто же знает, что там внутри происходило? А в Амиге и Атари перед банкротством в середине 90х, со всей безумной кучей проектов разных фантастических железяк от Атари? А перипетии Сеги на марафоне от Saturn до похорон Dreamcast? Историю внутренних отношений и трений в малом мире клонов x86 между Cyrix, IBM, TI, C&T, IDT, Rise и всеми остальными аутсайдерами. И это только вершина айсберга. Есть ведь еще множество загадок из восьмидесятых и даже семидесятых годов ...

Вы можете верить кому угодно, но факты-то другие - Келлер был уволен до прихода Гелсингера.

На самом деле факты немного другие - Келлер не был уволен Келлер ушёл, сам, в июне 2020 года.

А Гелсингер был назначен (приглашён из VMWare) в январе 2021 года

По слухам же, его рассматривали на должность гендира интела, вместо Боба Сона (который изначально был временщиком).

Однако дальше произошло что-то мутное - или не договорились или её что (так как свалил Келлер ну очень резко, ведь ещё в мае он там раздавал интервью).

Вроде бы как именно это и побудило перейти к кандидатуре Гелсингера.

Но, однако, какая ещё может быть версия - все понимают, что такие вещи, как смена гендира, не происходит одномоментно. Вероятно переговоры с Гелсингером могли начаться ещё за полгода. Лично я не знаю, это просто попытка как-то состыковать события.

И есть вероятность, что Келлер сначала понял, что он не становится директором, а когда понял, кого назначат, решил смотать удочки.

Т.е. как и во многих процессах, сотрудники высокого ранга знают о переговорах и договорённости достигаются за какое-то время до свершения сделки, так как много юридических и управленческих деталей.

В случае со Своном это получилось быстро, так как можно сказать он был человеком изнутри и его перевели на другую должность. Это проще. Келлер бы Свона тоже сменил за пару дней.

Как раз люблю иногда посмотреть этого Moore law is dead. Прр Интел у гего набор слухов с точностью менее 10%. Походу его инсайдер даже не рядом ходит с настоящими проэктами - выглядит как чел из strategic planning или marketing.

Кстати и по amd у него точность не звезда. Пересмотрите видос про zen4, процентов 80 не соответствует...

С подачи и доводов автора - больше похоже на козла отпущения, которого выставили в авангард под "аля-улю", и на второй день сразу за спиной связали руки, чтобы канализировать свои накопленные за лет 7-8 проблемы, по их плану, а не по его плану спасения.
Причем и "касту" подобрали как надо - инженер переквалифицировавшийся в менеджеры (типа, профессиональные менеджеры ИТ, такого - бы не допустили, не надо нас приплетать - мы хорошие), а сами по факту, наверно и руку из "куклы Пэта" не вынимали. Получить по их контракту парашют и дождь такой же вдогонку, и счастливо, наконец за полвека жизни, будет проводить время с семьей.

С каких пор интелы греются до лимитов, лимиты 12900, 13900, 14900 свыше 125 градусов, они при нормальном озлаждении даже при высокой нагрузке едва отметку в 100 пересекаются, а какой нибудь 13600к и вовсе выше 60 температур не видит, с андервольтингом 43-53, а вот всякие 5600, 7600, 9600 и 80 и 100 имеют

Процессоры Intel никогда не грелись до 125 градусов, 100 потолок, лишь на некоторых моделях 105 градусов потолок.

А поясните, пожалуйста, про медные инсуляторы. Даже в статье о Лизе Су по ссылке нашел только по медные соединения.

На слове «проводники-инсуляторы» я чуть лицо фейспалмом не пробил...

Инсулятор (insulator) это изолятор. Медный изолятор это оксюморон. @riddlerider вы точно ничего не перепутали?

Это и было секретным рецептом AMD изобрести и добавить медный проводник-изолятор никто бы не додумался)

Это даже не "гуртовщики мыши", это выглядит как запредельный уровень галлюцинаций при переводе.
По ссылке это два предложения в разных параграфах. Как их можно было так скомпилировать?

"As a doctoral candidate, she was one of the first researchers to look into silicon-on-insulator (SOI) technology, a then unproven technique for increasing transistors' efficiency by building them atop layers of an insulating material.

After joining IBM in 1995, Su played a critical role in integrating copper connections into semiconductor chips, solving the problem of copper impurities contaminating the devices during production, which led to significantly faster chip speeds."

"В бытность аспирантом(?), она была одной из первых исследователей, изучавших технологию кремний-на-изоляторе (SOI) — тогда еще непроверенную методику, предназначенную для повышения эффективности транзисторов за счет их создания поверх слоя изоляционного материала.

После прихода в IBM в 1995 году Су сыграла ключевую роль во внедрении медных соединений в полупроводниковые чипы, решив проблему примесей в меди, загрязненявших устройства в процессе производства, что привело к значительному увеличению скорости работы чипов."

Я не увидел бирки, что это перевод. Но если это таки галлюцинаторный перевод, тогда у меня и к планам питания вопрос. Возможно это power planes, а power planes это совсем не планы питания...

Это полная чушь.

Интел потерял всё задолго до второго пришествия Гелсингера. Фактически он встал у руля уже пикирующего самолёта.

Более того, лидерство интела во многом являлось случайностью.

Давайте начнём с простого - когда-то интел был не один. И я говорю не о клонах х86, а , например, о разработках IBM и мотороллы. Никто особо не мешал компании нормально выходить на потребительский рынок, который они сами же и создали, но они предпочли и дальше заключать договора с компаниями и делать чипы для их устройств. По итогу они зафакапили и это направлениеи хоть POWER в целом жива, это не те объёмы. А ведь это RISC архитектура.

Далее, мы помним, что вообще-то AMD и до райзенов имела успешные продукты, которые неплохо так затыкали интел. Например атлоны, которые пинали очень неплохие трtтьи пентюхи, а атлоны 64 для пентюхов 4 были почти тем же, что райзен сейчас.

И ведь интел никто не заставлял тогда гоняться за гигагерцами любой ценой, точнее только и делать, что гоняться за гигагерцами. Никто не заставлял выкидывать p6 и менять на NetBurst. Именно тогда зародились и длинные конвейры и гипертрейдинг.

Но тогда повезло сразу с двумя вещами - маркетинг позволял продавать больше конкурента, хотя здоровый кусок рынка был потерян, да и к тому моменту, как интел сообразил, что выстрелил себе в ногу, взял p6 и начал его допиливать, а после вывалил на рынок весьма приличные процы, AMD начала сама себе стрелять по ногам со своим бульдозером.

И вот, 2011 год, у интела на руках прекрасный Sandy Bridge, впереди Ivy Bridge и Haswell, а конкурент убил сам себя.

Что делает интел? Сначала выпускает весьма странный Broadwell, чего мало кто замечает, так как есть же Haswell, а потом интел начинает тонуть в озере.

Кто заставлял интел продавать ARM подразделение в 2006 году? Нет, я тоже когда-то продал эфир по 55, а было то за пару месяцев до бума майнинга. Но мне были нужны деньги и я обычный человек. А интел слил всё прямо на пороге новой эры.

Далее - Intel Atom, как попытка догнать уходящий поезд. Не догнали. Атомы были плохи. Все. Они были просто никакие.

Далее - Core M. Помните, году так в 2015 вышел Macbook 12, как раз на Core M? А помните, что он был, фактически, один и продолжения не получил? А вы заметили, что он, по ряду параметром, очень схож с Macbook Ait, который вышел в 2020, но уже на другом M чипе? Полагаю, что именно получив вот это, Apple и начал активнее копать в сторону собственных процессоров. В смысле у них уже тогда были свои процессоры, но вот в тот момент они начали их прям сильно прокачивать. И через пару лет вышел A11 Bionic, который имел и свою графику и нейронные ядра. Это было примерно за полшага до полного перехода.

А что интел? А ничего. По сути они сделали атом за номером 2, пусть и пошустрее. Ладно, окей, не атом, так как Cherry Trail вышел в тот же год, что и последний флагманский m, но вот типа m7-6Y75 , лучший из m, был реально на уровне 6100u - худшего из мобильных чипов. Т.е. они тупо взяли свой чип и зарезали энергопотребление, как могли. И получили тормоза.

Так, дальше был период, когда число ядер не росло, число герц особо не росло, были проблемы с теплопакетом, что, особенно, было видно на мобильных чипах. Как итог, интел 8ххх уже были так себе, но наверное пиком развития. После этого пошла куча костылей и refresh. И всё было бы у интела хорошо, но вот AMD тут вернулся с райзенами не вовремя. А потом да, случил Zen 3. И переломил он интел потому, что у тех уже был пятилетний застой. ОНи всё переделывали и переделывали skylake, задрав всех своими refresh и 10++++++++++ нм.

По итогу с тех пор у них ну хоть как-то получилось 12 поколение и то спорное.

Далее - вечные смены сокета. Ну, не сиделось им на одной площадке. В итоге сложилась ситуация, что апдейт проца всегда требовал смены и всего остального. Как минимум материнки. И вот, если даже твой конкурент стоил на 50 баксов дороже, он не требовал покупать вместе с собой ещё кучу всего. Люди это прочухали.

Но интелу было пофиг, он жил в серверном сегменте, потребительский был вторичным. Но и там стало всё тухно, ведь там использовались те же технологии, что в настольных, с теми же проблемами. Только там теплопакет был даже критичнее.

Как итог - к 2021 году интел, как компания, оброс бюрократией. Интел либо боялся эксперементировать, либо наоборот, бросался в авантюры. Вести несколько направлений им было не особо интересно.

Интел слил подразделение ARM и ядро XScale, хотя оно использовалось в iPod, коммуникаторах и планировалось для iPhone в рамках стратегического сотрудничества

Интел прибил свой же бизнес по производству сотовых модемов, хотя тот же Qualcomm в том числе на них заработал денег на покупку Intel,

Ребята так же долгое время забивали на видеокарты, сидя на своих HD. В итоге к моменту, когда они спохватились и выпустили Arc, он был примерно никому не нужен.

Интел упустил своего крупнейшего клиента, Apple. А консольщиков и прочие устройства у IBM увёл к себе AMD. Потому в боксах, плейстешнах и стимдеке стоит не интел. Хотя 10 лет назад Wintel был по сути базой для игр и это можно было развивать.

По Келлеру тоже самое - да, он крутой инженер и именно его, по хорошему, надо было ставить во главу, тогда бы, наверное, получилось как у Лизы Су. Но проблема тут в том, что AMD не была корпорацией. Им самолюбие не мешало признать ошибки. А интел это корпорация, они не могли поставить во главу не человека из системы, а человека, который не просто делает продукт, а который предлагал всё сломаь и перестроить, выкинув лишнее. Собственно именно Келлер же и выкинул из AMD бульдозер и начал пилить Zen. Он же, по сути, сделал первые собственные процессоры для Apple и заложил основу для М процессоров. Т.е. можно сказать, что он и прибил Интел. Ну, если утрировано. И да, он лучше всех на планете земля знал, чего нет у конкурентов интел и как сделать лучше и веселее.

Так что к 2021 году интел уже был в заднице и если этого кто-то не понимал, то этот человек слепой или глупый. Всё остальное это уже последствия. Просто за 3 года не случилось чуда, везение закончилось, а текущих шагов не достаточно. Интелу надо не просто выдать какой-то заметно отличающийся продукт и сменить маркетинговую политику, им надо очень сильно пересмотреть отношения с миром вокруг себя и понять, что они не исключительные

Вооот! Наконец-то нормальный анализ.
У меня с дивана такое видение - когда зеленые отстали и вообще чуть ли не сошли с трассы, у синих был Санди и они расслабились. И расслаблялись долго. А когда зеленые подтянулись и нагнали... то... уже ой...

Простите, наверно все таки красные, а не зеленые. Зеленые это другие. в куртке :)

Зеленые и красные
Зеленые и красные

А Синие это Сабж

Ааа так это имели ввиду .... да помню зеленый желудь, но давно за зеленые считаю GF

Когда-то они были зелёными. Олды помнят.

А ещё логотип Nvidia был гораздо больше похож на луковицу.

Если не путаю, покраснели они, наевшись ATI.

Ну, да, согласен. Это и пишу в комменте.

Задница в Интеле началась как раз тогда, во время Broadwell. Техпроцесс до этого работавший как часы, дал сбой. Тик-ток схема пошла лесом потому что новый 14нм запаздывал больше чем на год. Я помню как Broadwell копировал RTL код из следующего за ним Skylake чтобы хоть как-то остаться релевантным. Уже тогда можно было задуматься и начать готовить backup plan. Но нет...

А кто мог подумать что Skylake окажется последним? Что 10нм так и не придёт и CannonLake (10 нм последователь Skylake по тик-ток схеме) так и останется на бумаге.

Что 5 лет нам будут говорить, что вот вот и будет вам следующий техпроцесс и уже готовый IceLake выйдет в свет. Внутреннее имя IceLake это P17. А вышел он в 2019 году. Причём первый раз на том же 14нм. То есть его переделали под старый техпроцесс.

И виноваты тут руководство Интела. Конкретно BK (Briyan Krizhanitch) который тогда CEOил. Такого количества вранья сверху вниз как было тогда не было и не будет никогда. Под его начальством Интел умер. Отстал во всем, в микроархитектуре, в производстве, в техпроцессе, во всем. Его ставленники такие как Murthy Renduchintala убили Intel. В 2016 году этот Murthy приезжал к нам в Хайфу делать open forum, вещал что все на фабриках налаживается и скоро Lenovo получит заказанный CannonLake. Кому он врал ? Мы же с этим работаем. И выход годных чипов 6 (шесть штук) на wafer говорит, что нам гонят...

Когда BK окончательно выгнали жопа уже была как чёрная дыра. Я думаю Jim Keller сбежал как только повертелся внутри и понял, что он не проктолог и лесть в эту жопу не хочет. Сразу убежал как только все понял.

А Pat полез. Причём с большими амбициями. Поднять давно лет на 5 отстающий техпроцесс до уровня tsmc. Вот только силы не рассчитал. Причём до сих пор не понятно если он провалился и просто ещё чуть чуть. До есть 20A провалился - выход годных чипов ok, но параметры процесса вроде частоты и power не конкурентоспособны. Дальше есть 18A. Пока говорят on track, но деньги и кредит доверия исчерпаны. Если 18A заработает, Intel будет снова на коне. Но вот верится с каждым днем все меньше и меньше...

Кто заставлял интел продавать ARM подразделение в 2006 году? Нет, я тоже когда-то продал эфир по 55, а было то за пару месяцев до бума майнинга. Но мне были нужны деньги и я обычный человек. А интел слил всё прямо на пороге новой эры.

У них внутри компании дрочево на х86 просто, и все, что могло пошатнуть положение х86 на рынке, зарезалось корпоративными играми.

Ну, дык, вот вам и причина. Хотя, по сути, никто не мешает поделить компанию на подразделения под единым брендом. Да и тогда ARM ещё даже близко не являлся кокурентом настольникам

Помню как на какую-то конференцию приезжали "разработчики" Atom и топили и со сцены, и в кулуарах за это чудо и "непроходящее" светлое будущее. Потом лет через 5 другие "разработчики" (а может и эти же)) рассказывали о новом "прорыве"... Но я плохо себе предсталяю, как приехать на форум и "мочить" собственный продукт. Он же денег стоит! )). А атомные EeePC, да, вон лежат.

Да были у меня они. Был и 101 асус и какой-то планшет от них же на вин 8 и каком-то из последних атомов. Работало это всё очень плохо

Да о чём тут говорить, нетбук Atom N450 у меня работал хуже селерона на туалатине.

Туалатин работал лучше некоторых пентиумов 4.

Интелу надо не просто выдать какой-то заметно отличающийся продукт и сменить маркетинговую политику, им надо очень сильно пересмотреть отношения с миром вокруг себя и понять, что они не исключительные

Выпуск высокопроизводительного микропроцессора с системой команд RISC-V возможно и не спасет компанию, но точно откроет новую эпоху в процессоростроении. Интел мог бы сделать большое и доброе дело перед смертью.

Не думаю, что интел умрёт. Too big to fail. Мобильное подразделение нокии не убило остальную компанию, как и компьютерное подразделение IBM. Они точно сохранят контрактное производство, они всё ещё крупные держатели лицензии ARM, да и деньги, как и доходы, завтра не закончатся. Сейчас речь о негативном тренде и так себе перспективах. Ну, что было и у амд, году так в 2012.

Плюс смотрим, что на рынок процев рвётся nvidia, у которой есть давний опыт с арм и которая чуть не купила арм. А еще nvidia рвется в серверный сегмент.

Не знаю, зачем им проц на RISK V. Арзитектура сырая и ей нужно кучу доработок.

Глобально я слышал ряд интересных мыслей. Они в том, что бизнес интел надо делить на части. Так же, по сути, им надо молить вернуться Келлера, ставить главой по процам и давать карт-бланш и кучу денег.

А дальше по ситуации, но с этими горячими монстрами точно надо что-то делать.

Не думаю, что интел умрёт. Too big to fail.

Еще это один из 2 производителей x86. Смерть одного определенно нежелательна для разных ведомств вроде Министерства обороны США, которое вполне может решить дать денег на "поддержание штанов". Да и можно посмотреть на AMD, она же как-то пережила свою эпоху застоя.

Работаю с бывшими старожилами Intel Fabs, они говорят что ARM для Intel был почти за даром, так как die размещали на окраинах wafer для pentium.
Они были здорово озадаченны когда intel свернул это направление.

Тот случай, когда комментарий лучше статьи. Теперь это всё выглядит логично, а не "пришёл один чел и всё развалил" (что, несомненно, случается - но гораздо реже, чем об этом пишут). Кстати не удивлюсь, если всё действительно свалят на Пэта на официальном уровне. Интел свои проколы никогда полноценно, как корпорация, не признаёт - гораздо удобнее найти крайнего.

Возможно Интел все потеряла, но у меня дома три компьютера на интелах, нас собран на интеле, на работе сервер на интелах, все рабочие компьютеры так же на интелах. А для поиграться лучше приставку.

Возможно Интел все потеряла, но у меня дома три компьютера на интелах, нас собран на интеле, на работе сервер на интелах, все рабочие компьютеры так же на интелах.

Полагаю, что это либо уже в меру старые ПК, либо купленные просто по инерции. Объективно нет причин покупать Intel, когда для геймеров есть X3D процессоры, а для работяг - какие-нибудь 7950Х или даже Threadripper. Intel ни к селу, ни к городу.

Были одно время стереотипы, мол, Intel стабильнее и все дела - ну Intel сама их на корню зарезала своим позорным подходом к браку 13 и 14 поколений.

А уж Core Ultra вообще непонятно для кого делался, походу просто молились, чтобы никто не заметил их выкрутасов с ATX12V. Заметили. Кому теперь это продавать - не ясно, разве что обманом.

Для геймеров, не самых ТОП, есть и 7500f. Хотя мне и 5600X до сих пор хватает. Геймеры это не только те, кто хапает последние АААА новинки.

И да, инерция была. И подрезано доверие было ещё на 8 поколении. 7, 9-11 тоже были хз для кого. 12 смотрелось ну окей, а 13-14 забили крышку.

И да, нет обьективных причин покупать интел, где-то примерно с выхода Zen 3. До того момента ещё были какие-то весы, после этого странно - амд поправил почти все детские болезни, был дешевле, холоднее и минимум не менее производительный

Извините, 7500f? На 4 потоках даже в офисных задачах становится душновато порой, сейчас самый минимум 4\8 как никак.

Я про старый i5 7500 подумал) Не знал что амуде, процы без графики тоже индексом F начали маркировать.

Разводка сложных FPGA все еше быстрее работает на Intel. Перепробовано несколько вариантов, Vivado справляется на 1.5 часа раньше AMD. Среднее время 6.5-7 часов, AMD от 8 и выше. И там и там 128 Гб DDR5

а что скажете про процы Intel N100 (N95)?

недавно выбирал себе неттоп, так вот похоже N100 самый идеальный вариант. производительность на уровне i5 8го поколения, энергопотребление 6W впечатляет.

Разве что с индексом U, судя по бенчмаркам, а так - аналог моего десктопного i5-2500 с чуть большим кэшем, более быстыми шинами (при вдвое меньшем их количестве) и вчетверо более производительным видеоядром. Ну и с потреблением раза в 8 меньше.

Вот тут можно производительность посравнивать во всяких бенчмарках и по характеристикам самих процев: https://www.notebookcheck.net/Mobile-Processors-Benchmark-List.2436.0.html
Если интересуют только какие-то конкретные из списка, то можно поставить галочки напротив них и нажать кнопку «Restrict».

Такой есть на руках, в Dere T60.
Под виндой производительность достаточно скучная. В целом, пока винда не решит заняться какими-то своими делами, он шустр, но в любой момент может призадуматься на несколько секунд. Например, при открытии из трея KDE Connect.
Под пингвином — вполне норм, не хуже T440s (i5-4300U), при более быстром видео.

Возможно Интел все потеряла, но у меня дома три компьютера на интелах, нас собран на интеле, на работе сервер на интелах, все рабочие компьютеры так же на интелах.

У меня серваки в конторе тоже на интеллах, образца 2014 года кстати. Но это совершенно не значит что следующие тоже будут на интеллах.

Ну таки и шо? А у меня последним интелом был 4770. Уже лет 5 у меня нет интелов, 5 лет я собираю людям устройства на амд, а последнее, что осталось, это мами ноут из 2018, который поанируется посенять. И о чём это говорит? Да ни о чём, совершенно. Хотя 10 устройств на интеле у вас дома, хоть 50 - даже если вы из каждый год обновляете, это капля в океане продаж. Там перепады считают миллионами экземпляров

Я вот много лет на интел, в сторону амд не смотрел, последнее собрал на i9-11900, думал когда будет новый сокет, занедорого обновиться на LGA1700, смотрел в сторону 13700, а они вон как, оказывается(

Как шарящий, подскажите, пожалуйста адекватный игровой конфиг на амд, по цене мать(чипсет)+цпу до 50круб под видюху 4070ти

Я год назад на 13700 обновился. Полёт (пока) нормальный.

Ryzen 7 7700X + любая понравившаяся материнка на чипсете B650

Посмотрел, amd 7700x стоит как 13700kf, причем слабее процентов на 20-30, в чем выгода, непонятно.

в том, что не превратится в тыкву, как все интелы 13 и 14 серий - в них неисправимый баг на уровне железа, натурально их убивающий со временем

Выгода в том что это не 13700.

Это как раз один из самых проблемных процессоров

Раньше тоже все с Нокиями ходили и где она?

Мобильное подразделение Нокии?
Продали другой финской компании, которая звонилки и смарты с ведроидом клепает под той же маркой.

другой финской компании, которая звонилки и смарты с ведроидом клепает под той же маркой

Есть мнение, что конечным бенефициаром другой финской компании является китайская HMD Global или как оно там называется, тогда как эта конкретная другая финская компания - не более чем номинальная прокладка и возможность совершенно законно, хотя и глубоко ложно по сути, связать китайскую продукцию китайского производителя с Финляндией, что может дать маркетинговое преимущество. Я не пытаюсь сказать, что это хорошо или наоборот плохо, я лишь пытаюсь сказать, что весьма популярный какое-то время назад бренд, больше не подкреплен ничем, кроме воспоминаний о том, что раньше трава была зеленее и в целом жилось счастливее. Ну а падение потребительского сегмента тогдашней "большой Nokia", которую почти все ассоциировали с телефонами - тема для отдельной главы в учебнике по экономике. Потому что с полимерами там обходились образцово-показательно, многое там есть на чем воспитывать новые поколения эффективных менеджеров.

Сейчас за чуть больше $60 можно неплохую звонилку от них купить (Nokia 235 4G (2024))
Про смарты с ведроидом не скажу: по обзорам/характеристикам вроде как средний китайфон сейчас.

У мну был купленый (за 4,5к грн, емнип) в 2011 году N8-00 финской сборки и несколькими годами ранее 6120c венгерской. Я бы наверное и дальше брал их аппараты если бы не заглянувший на минутку из μ$ Элоп и угробивший maemo/meego ради Б~гомерзких плиткофонов, которые канули в Лету через несколько лет.
С месяц назад, кстати, видел в продаже 808 PureView в рабочем состоянии. Правда за него больше $110 просили, емнип.

В общем поезд ушёл и это печально.

Сейчас за чуть больше $60 можно неплохую звонилку от них купить

Ой, я вообще не в курсе этого рынка, поэтому просто подтверждаю, что прочитал, но осмысленно прокомментировать не могу.

Про смарты с ведроидом не скажу: по обзорам/характеристикам вроде как средний китайфон сейчас.

Точно так же, мельком в каких-то обзорах видел - что-то обычное-заурядное, но знаю не более чем. Неинтересно.

У мну был купленый (за 4,5к грн, емнип) в 2011 году N8-00 финской сборки и несколькими годами ранее 6120c венгерской.

А напомните, курс тогда какой был? Не восемь ли где-то с половиной, что дает грубую оценку вашей покупки в $500?

Загуглил N8-00 - не проникся. У меня в те времена уже год или два как был Samsung i920 (CDMA версия Omnia II) - аппарат с шикарным по тем временам 4.7" AMOLED телевизором и WinMobile 6.5, которая уже начинала движение в сторону "пальцеориентированного интерфейса", но поддерживала весь ранее написанный софт, коего было, скажем так, очень много, и среди которого было немало субъективно очень нужного. Все аппараты, что были у меня до, мгновенно субъективно обесценились - из-за превосходства экрана в первую очередь. Ну а помимо экрана аппарат запомнился беспроблемностью и безглючностью в широком смысле слова. Ранее у меня не было своих телефонов Samsung, а чьи-то аппараты, что просил на посмотреть, своей заурядностью интереса не вызывали.

6120c - один из огромного количества странных аппаратов, которые формально вроде как смартфон - можно устанавливать свои программы, которые поддерживаются операционной системой телефона, но которые вроде как просто тупая звонилка, потому что пользовательский интерфейс в виде полутора десятков физических кнопок совершенно непригоден ни для какого серьезного взаимодействия с почти любым софтом кроме номеронабирателя.

Пожалуйста поймите меня правильно: я не пытаюсь сказать, что вы неправы в общем или где-то что-то сделали не так в частности - ни в коем случае нет! Мне просто искренне непонятны ваши мотивы, но я не оспариваю их, а просто спрашиваю, почему, что вы нашли такого, чего недосмотрел я, приводя пример своих решений и объясняя их как понятный контрпример, а не как объект бессмысленного спора.

Я бы наверное и дальше брал их аппараты если бы не заглянувший на минутку из μ$ Элоп и угробивший maemo/meego ради Б~гомерзких плиткофонов, которые канули в Лету через несколько лет.

Тут удивительно сошлись два вектора - затянувшийся системный кризис телефонного отделения Nokia и какого-то непонятного мне приступа идиотизма Microsoft. Обе конторы решили кинуть через колено своих более чем многочисленных лояльных потребителей, причем максимально жосско™ и максимально необратимо. Объединившись, они еще более усилились, и победа над лояльной аудиторией стала просто оглушительной.

С месяц назад, кстати, видел в продаже 808 PureView в рабочем состоянии. Правда за него больше $110 просили, емнип.

Неинтересно (моя субъективная оценка).

В общем поезд ушёл и это печально.

Да, печально. Я никогда не был фанатом Nokia - последний аппарат, который мне искренне нравился и с которым я не хотел расставаться, назывался 450 (если не ошибаюсь - внутренний индекс был THF-9). Зато я был фанатом WinMobile и настойчивость, с которой Microsoft убивали эту систему, меня неприятно удивляет до сих пор, равно как и две в принципе одинаковые попытки по-глупому, предсказуемо провально, вкатиться с WinPhone. В результате телефоны с аппаратной точки зрения менее разнообразны, а с программной точки зрения имеем фактическую дуополию, где оба конкурента тянут худшее друг у друга, вместо присутствия серьезного третьего игрока.

Ну а падение потребительского сегмента тогдашней "большой Nokia", которую почти все ассоциировали с телефонами - тема для отдельной главы в учебнике по экономике.

Про это книги есть, например от Ристо Сииласмаа, участника тех событий: "Nokia. Стратегии выживания".

Раньше тоже все с Нокиями ходили и где она?

Это все Муртазин виноват. /s

Интересно, а что мог сделать г-н Гелсингер в 2023-ем когда факап с дохнущими камнями вскрылся ? Безоговорочно заменить все 8 млн бракованых камней ? В этом случае пришлось бы продать что-нибудь ненужное (Altera например), процесс бы точно затянулся и плавно перекатился в банкротство.

И эта формулировка про "загрязнение линии" выгядить как лапша на уши инвестров. Проблема куда серьезнее - в технологии производства, которая оказалась "с душком", устранить который в кратчайшие строки не представляется возможным. И именно по этой причине Интел переносит производство на TSMC. Своё производство не тянет.

вероятно ничего, по слухам Гелсингер типа порядочный человек, также по слухам большие расходы связаны с новыми фабриками, но это стратегическое направление, поэтому упасть Intel скорее всего не дадут

Понятное дело, too big to fail. Перетасуют менеджмент, выдадут бессрочные беспроцентные ссуды и продолжат штамповать процессоры второго эшелона. Но для нас Интел будет уже не торт. :)

сказать прямо для меня он всегда примерно таким был, с тех пор как альфу угробили ради своего убогого itanium, + надежду на risc desktop, но технически могут пропустить через банкротство примерно как было с GM в 2009, т.е. со сменой владельцев и реорганизацией, типа если сейчас совет директоров контролируют бухгалтера из инвестиционных фондов, то будет правительство, поживем увидим, поставлена задача сделать свою TSMC, если понадобится вероятно могут даже национализировать в крайнем случае

Правительство США сейчас интересуют только фабы. Поэтому могут начать делить как когда-то поделили AT&T - производство отделить от R&D. Попутно отделить софтописателей и ПЛИСостротелей. Ничего хорошего это не сулит. Хотя Alter-а (или что там от неё осталось) может быть вздохнула спокойно.

Могли бы фабрики третьему стратегическому поставщику отдать какому-нибудь. Как я понимаю, процессоры Harris 286 в девяностых годах появились именно так. Юзерам бюджетных сборок в развивающихся страных это было только на пользу.

Тогда почему Intel производит свои новые серверные процессоры (Sierra Forest и Granite Rapids), где куда важнее стабильность, у себя по техпроцессу Intel 3? Ваш аргумент о причинах переезда клиентских процессоров на TSMC выглядит бессмысленно.

А что такое "Intel 3" ? Сколько это в лаптях ? Всем известно что прогресс у Интела остановился на 10нм, все остальные техпроцессы экспериментальные и до продакшна не доведены.

Intel 3 это условно TSMC N3. Он немного хуже N3 по плотности транзисторов, но соответствует по производительности на ватт. До него был intel 4. А еще до него intel 7 (который соответствует TSMC N7).

все остальные техпроцессы экспериментальные и до продакшна не доведены

Ну врать то зачем. По intel 4 производится Meteor Lake, уже больше года. Поставлено десятки миллионов процессоров. А по intel 3 производятся серверные процессоры еще с июня.

Почему бы теперь не пригласить Джима Келлера на главный пост? Все равно, терять по сути нечего. Дать ему полный карт-бланш и делов то

Причина как раз не в процессорах. Просто в интеле плохой фин менеджмент. Все компании росли и накидывали в цене акций, выдавали опционы и тд. Интел стоит в цене уже 20 дет почти, зачем работать хорошему инженеру там, а не в нвидии или амд например.

UFO landed and left these words here

медные проводники-инсуляторы

Попробуйте посмотреть в словарь и подумать.

Проблема процессоров 13 и 14 поколений была не в окислении и не в микрокоде, а в том что под нагрузкой с повышением напряжения питания и температуры поплыл clock duty cycle (из 50%) и это вызывало повреждения. Это последняя версия от 25 сентября 2024, а до этого в Интеле не знали в чём проблема и что объявлять публике кроме того, что процессоры горят. https://community.intel.com/t5/Blogs/Tech-Innovation/Client/Intel-Core-13th-and-14th-Gen-Desktop-Instability-Root-Cause/post/1633239?s=31

Пост от Интел выше кстати отчасти ложный, вопреки их утверждениям топовые мобильные процессоры тоже массово "горят", по крайней мере их версии близкие к десктоповским.

Если Intel APX не заброшен, то смог бы дать компании немного преимущества.

желтушная статья, впрочем, как практически и все новости про интел с начала этого года. Амд сделала отличное вложение денег, инвестировав их в антипиар конкурента, вместо разработки и производства 9000й линейки своих процессоров.

Очень интересно, только когда Джим Келлер ушёл из Intel Пэт Гэлсингер был CEO VMWare. Они никак не могли вместе пересекаться. Все что советовал Келлер это уйти к тсмс, что собственно интел и сделал

Уж сколько раз твердили миру, что если человек хорош в чем-то одном, то это совершенно не значит, что он хорош во всем остальном. Гелсингер вполне может быть хорошим техническим специалистом, но совсем не обязан быть хорошим управляющим. Я столько раз видел уже, как на эту должность назначали заслуженного кого-то там со словами, что сейчас-то он выведет нас из кризиса, и каждый раз это приводило к еще большим проблемам.

А это не Слоун разве был, когда Интел сбагрила свой ARM компании Marvel?

И тут его сменил стрелочник и ату его, он во всём виноват! Нет, такие компании как Интел не свалить так, процесс уже шёл задолго до стрелочника.

Инвесторы отреагировали мгновенно. Акции Intel потеряли треть стоимости за считанные дни, и учитывая плавное падение на протяжении всего 2024 года, легендарная компания стала стоить почти в 3 раза меньше, чем AMD. Той самой AMD, которая совсем недавно уступала капитализации Intel более чем вдвое.

Мне кажется, эти казалось бы объективные сведение на самом деле не имеют отношения к реальному положению дел. У Intel есть много очень дорогих заводов, которые либо уже работают (большинство), либо еще строятся и, предположительно, заработают вскорости (тоже немало). Точное количество заводов и оценку стоимости каждого, уверен, можно найти в открытых источниках, но в любом случае речь об очень многих миллиардах долларов. Еще у Intel есть, упрощенно говоря, научно-исследовательские институты, тоже сильно более одного, географически распределенные. И огромное количество интеллектуальной собственности. Что из этого есть у AMD? Только второе и третье, причем я сходу не возьмусь сказать, в сопоставимом ли количестве. То есть стоимость активов Intel несравнимо выше стоимости активов AMD. И тут мы снова возвращаемся к процитированному: так называемая капитализация по сути не более чем индекс спекулятивных ожиданий держателей акций, имеющий малую, если вообще хоть какую-то, корреляцию с активами. Не следует ли делать хотя бы поверхностный обзор материального положения сравниваемых компаний перед тем, как приводить спекулятивные цены на их акции? Потому что следующим будет, что ученый изнасиловал журналиста AMD "стоит" столько-то (много), а Intel "стоит" столько-то (мало), поэтому AMD может купить весь Intel и еще здача на покупку Apple останется - такого в статье, к счастью, нет, но в комментариях к статьям, где помимо прочего заходит речь о стоимости акций, случается регулярно.

Стоимость акций - это реальные (привлеченные) деньги. Без необходимости продажи своих активов. Так что да - Amd сможет купить хоть частично Intel, когда та вынуждена будет продать часть активов (и ведь та увольняет, продаёт, оптимизирует).

Стоимость акций - это реальные (привлеченные) деньги.

Вы про IPO или про вообще всегда?

Второстепенный вопрос: а деньги где, на счету лежат или инвестированы в заводы газеты, пароходы? В смысле насколько легко просто взять и купить?

Без необходимости продажи своих активов.

Если сильно упростить, то активы проданы акционерам. Единоразово. Поделены на равные доли - каждая доля это одна акция, кто сколько долей смог купить, тот такой частью активов и владеет. А уже потом акционеры держат или перепродают свои доли другим акционерам - от стоимости перепродажи доли стоимость активов самих по себе не поменяется.

Так что да - Amd сможет купить хоть частично Intel, когда та вынуждена будет продать часть активов

AMD может купить часть Intel или весь Intel только приобретая доли - акции. Приобрести акции обычно можно только за деньги. Да, в принципе существуют и другие варианты, но по большому счету только за деньги.

Продажа и покупка активов это не продажа и покупка компании частично или целиком - это только продажа неких материальных или нематериальных объектов, например списанной мебели или патентов.

и ведь та увольняет, продаёт, оптимизирует

Отлично, нужно разбираться с накопившимися проблемами.

Вроде и выпуск дополнительных акций практикуется. Как раз для получения реальных денег. Или Вы считаете, что выпуск - это одноразовая акция? Вот наш центробанк что то там раз за разом выпускает и выпускает.

Да чепуха полная.

Максимум - это количество денег, которые нужно профукать, чтоб выкупить акции обратно )

А так - действительно спекулятивные ожидания держателей.

Посмотрите на картинку про доли рынка
Там в октябре
Intel 65,62%
AMD 36,76%
И итоговый рост у AMD 4%

А ничего так, что 65,62 + 37,76 = 102,38!
То есть ошибка в 2.38% и вот уже рост у AMD может быть не 4,19% а 1,81%

Как вообще они считают
Intel: было 66,8%, стало 65,62% или падение 1,18%
А в таблице -1,76%

То есть рост AMD завышен, падение Intel завышено...
Очень и очень странные данные, выглядит как манипуляция общественным мнение и (не дай бог конечно) биржевыми котировками

Уменьшение доли с 66,8% до 65,62% — это падение на 1,76% или на 1,18 процентного пункта.

P -B ядра это бред для верхнего ценового диапазона. А в нижнем вроде неплохие процы, но за встроенное графическое ядро много хотят.. Поэтому АМД лучше и в верхнем диапозоне, и в нижнем..Хотя цены на материнки в последних поколениях - спекулянтские.

Спасибо за статью, было очень интересно прочитать. Как раз сейчас планирую собрать комп, думал брать 13400f, но видимо надо брать AMD?

Определённо да, что-нибудь на АМ5 - в том числе из-за возможности серьёзного апгрейда в будущем, сокеты у АМД меняются редко

ZEN3 не начало, началом и первым звонком был первый Zen. Когда AMD показала, что их 8 / 16 могут за счет относительно бюджетной цены давать хороший показатель производительности на $. Интел годами не шевелились и кормили рынок 4/8 в топ сегменте, и им уже пришлось догонять по ядрам. И перегрев у них начался с 8700к, только они добавили 2 ядра оставив под крышкой термоинтерфейс. А ZEN3 это уже был ударом под дых, еще и Apple с М1 пнули не плохо. Но вместо инженерных решений Интел стал играться в маркетинг выдумывая какие-то особые нанометры, а теперь и 285к процессоры. Так что, к моменту с браком в 2022м они уже катились вниз

Офигеть как много комментариев, но обращу внимание, что у Интела на R&D бюджет был в 10 раз больше чем у АМД, в 2016м году например. Они могли Паралллельно проектировать Множество Архитектур. Да они и проектировали, но, что это были за архитектуры, Итаниум, что-то мобильное с четвёртым кэшем. Эксперименты с графикой от АМД и т.п.

Ну и выкупать свои же акции - это вообще "интересное" решение. Так можно прийти к ситуации когда Акционерное общество принадлежит только самому себе, если Все акции оно же и выкупило. Ну, без акционеров-людей, только Менеджеры наёмные.

Ну и выкупать свои же акции - это вообще "интересное" решение.

Это очень хорошее решение со своими границами применимости.

Так можно прийти к ситуации когда Акционерное общество принадлежит только самому себе, если Все акции оно же и выкупило.

Именно ради этого так и делают.

Ну, без акционеров-людей, только Менеджеры наёмные.

Состав и цели этих наемных менеджеров может сильно отличаться у "обычного" акционерного общества со свободно торгуемыми акциями и у бывшего акционерного общества, фактически (или фактически плюс формально) вернувшегося в состояние частного владения одним или небольшой группой владельцев.

У Интела в этот бюджет расходы на строительство заводов и разработку технологий входят. Так что напрямую с АМД сравнивать неправильно.

Ну и выкупать свои же акции - это вообще "интересное" решение. Так можно прийти к ситуации когда Акционерное общество принадлежит только самому себе, если Все акции оно же и выкупило. 

Так делают например, когда считают, что компания недооценена на бирже, а также когда хотят делать вещи с большим горизонтом планирования, которые не поймут на бирже в краткосрочной перспективе. Такое делал DELL, когда Майкл Делл решил сделать компанию на некоторое время снова частной.

Articles