Комментарии 105
16-дюймовый ноут MacBook Pro с процессором Intel с 8 ядрами и 64GB RAM стоил $6000, а новый с M1 и 16GB RAM стоит $2000.
16-дюймовые MBP с M1 появились в продаже? Когда?
А как с производительностью у M1 в задачах, на которых нет аппаратных "кодеков". Например архивация 7z при максимальном сжатии. Хочется увидить gif'ку.
Ну если так, то и правда прорыв и хороший пинок Intel. Просто я против перехода в облака вычислительных мощностей рабочих ПК. Это с самыми "дохлыми" Intel, а как с мобильными процессорами "hq" например?
На самом деле, это лишь вопрос времени.
Производительность ARM развивается более быстрыми темпами, а чипы строятся на передовых техпроцессах.
Уже в 2021г TSMC запускает 3nm risk-production. Отгадайте, какие процессоры будут
сделаны первыми? Hint: Одна компания уже всё зарезервировала.
В серию они вряд ли пойдут (в 21) конечно, но кто знает…
Если Интел прямо сейчас не готовит ответ на M3 (на M2 уже поздно), им будет тяжело.
В ноутбуке есть много других компонент — дисплей, SSD, батарея, видеокарта — которые влияют на потребление и/или продолжительность работы. 20 часов в режиме просмотра видео, в первую очередь, определяется потреблениями аппаратного ускорителя видеокарты и дисплея, а никак не ядер процессора — который должен при этом вообще простаивать.
Как они вообще меряют потребление именно ядра — и как в этом учитывается потребление какой-нибудь системной шины или памяти — учитывая, что в M1 это всё намешано на один чиплет?
не крипту майните
Причём тут майнинг? У меня процессор часто занят компиляцией, например.
чтобы беспокоится о производительности ядра на ватт
Интересно, а чем по вашему нынче ограничивается производительность процессоров? Она ограничена потреблением и мощностью рассеивания. Во всех сегментах. Сервер может отвести 200-400W, но этого мало. Если запускать 64 ядра EPYC на той частоте, на которой он может работать в однопотоке, потребуется >1,5KВт, и система охлаждения, которая сможет отвести 1.5КВт.
Например использовать жидкий азот. Иначе плотность теплового потока будет такая что чип просто расплавится.
У кого
*при сравнимой производительности
видеокарта
А уж видеокарте perf/w ещё более важен. Какую вы выберете для ноутбука — с потреблением 10W или 100W, при одинаковой производительности?
Кстати GPU у Apple тоже очень энергоэффективные.
Как они вообще меряют потребление именно ядра — и как в этом учитывается потребление какой-нибудь системной шины или памяти — учитывая, что в M1 это всё намешано на один чиплет?
На M1 нет чиплетов. Это монолитный SoC.
Чипы DRAM в упаковке M1 это самые обычные чипы DRAM.
www.eetasia.com/why-is-apple-m1-processor-passing-on-the-chiplets
Чиплеты это отдельные кристаллы модульного процессора а-ля Ryzen или Lakefield.
Ядра отдельно, IO и контроллер памяти — отдельно.
Конкретно в M1 есть датчики на каждый кластер, каждое ядро, память, GPU, на всю упаковку в сборе.
twitter.com/andreif7/status/1328775201677565952/photo/1
Можно подключится к преобразователю напряжения и снимать оттуда.
www.slideshare.net/linaroorg/how-to-measuresocpower
Даёте нагрузку на разные ядра и получаете дельту. Какие тут могут быть вопросы?
И так как потребляет не только процессор, но и много чего другого — то можно сократить его потребление хоть в сотню раз, но если главным потребителем остаётся дисплей, то эффект от этого сокращения будет мизерным.
Соответственно и вопрос — какая доля от потребления всего ноутбука именно на потребление процессора, а какая — на всё остальное.
Даёте нагрузку на разные ядра и получаете дельту.
Контакты там общие для процессора и всего остального в нём? Как отличить потребление одного ядра из CPU от потребления контроллера памяти или ещё чего, если всё в одном наборе?
На M1 нет чиплетов. Это монолитный SoC.Имелось ввиду, что всё в одном корпусе, с одним наборов контактов для общения с внешним миром.
если уменьшить частоту (и, соответственно, производительность) вдвое
Неспроста было примечание под звёздочкой
*при сравнимой производительности
но если главным потребителем остаётся дисплей,
С чего бы это дисплею быть главным потребителем?
Если ноутбук работает 20 часов на батарее 60Вт/ч, это значит что весь ноутбук — дисплей, SSD, GPU, VDEC, память, CPU потребляет 3 Вт в этом режиме.
Контакты там общие для процессора и всего остального в нём? Как отличить потребление одного ядра из CPU от потребления контроллера памяти или ещё чего, если всё в одном наборе?
Я могу только повторить свой ответ:
Даёте нагрузку на разные ядра и получаете дельту.
Специфика нагрузки отвечает за активацию разных блоков.
Имелось ввиду, что всё в одном корпусе.
Корпус это тем более не чиплет.
С чего бы это дисплею быть главным потребителем?С того, что всё остальное очень часто простаивает.
С того, что всё остальное очень часто простаивает.
Речь шла о максимальной производительности процессора. Экрана у него может вообще не быть. У сервера, например.
Способности же M1 к разгону пока что недоказаны.
Вы невнимательно читали? Вот цитата:
Она ограничена потреблением и мощностью рассеивания. Во всех сегментах. Сервер может отвести 200-400W, но этого мало. Если запускать 64 ядра EPYC на той частоте, на которой он может работать в однопотоке, потребуется >1,5KВт
link.springer.com/referenceworkentry/10.1007%2F978-0-387-09766-4_499
Power delivery and dissipation limits have emerged as a key constraint in the design of microprocessors and associated systems even for those targeted for the high end server product space.
Способности же M1 к разгону пока что недоказаны.
О каком разгоне идёт речь? Алло?
Доказывать что-либо я вам и не должен, просто я привык так писать — с фактами и ссылками.
Во всех сегментах.Совершенно не во всех. Майнеры криптовалюты специально делают даунвольт и снижают частоты своих видеокарт чтобы поднять прибыльность. Сервера зачастую могут делать то же самое.
О каком разгоне идёт речь? Алло?О разгоне для того, чтобы уперется именно в TDP, а не в программный барьер или барьер из-за нехватки мощности БП.
Может, их стандартные 2ГГц и есть их предел?
Почему Mac Mini — который, по идее, вполне себе десктопного формата — не получил нормальной системы охлаждения, более мощного БП и разогнаного проца? Причём там внутри ещё и свободного места вагон…
1. Производительности побольше
2. Нагрева поменьше
Нагрев у нас порождается ваттами, которые скушал процессор, в итоге опять же скатываемся к производительности на ватт как к косвенной характеристике.
Уже в 2021г TSMC запускает 3nm risk-production. Отгадайте, какие процессоры будутно там таймлайн на 2022 год
сделаны первыми? Hint: Одна компания уже всё зарезервировала.
Но никакими «в 3-6 раз» всё же и не пахнет.они сравнивали с предыдущим поколением макбуков, где эйры троттлят так жестко, что там те же многоядерные geekbench/cinebench отличаются в полные 4 раза. А всякие 6/20 раз это про хардварно ускоренные задачи.
А там, где они сравнивали не с предыдущим поколением, они сравнивали с «популярными windows ноутбуками», которые тоже едва ли блещут несравненной производительностью.
4-ядерный Tiger Lake на 1% медленнее 8-ядерного М1. Извините, но смерти Интел здесь пока что не вижу. Как и разницы в производительности в разы. А вообще, это всё очень здорово, но как бы устройства на таких процессорах не перестали быть доступны большинству. Хотя подождите, сколько там стоит Evo-ноутбук или MacBook 2020?.. грустная ирония
Напомню, когда планировался переход из 32 в 64 бит — у интел, скорее всего, были планы переделать все. Но тут быстро подсуетилось амд…
Не успел Apple выпустить свой процессор а уже куча людей бегают с похоронами Intel. Напомнило как фанбои Маска хоронили Роснефть в начале 2010-ых. В общем ничто не меняется в этом мире.
Есть такая вещь — маркетинг, сейчас должны все говорить о новом процессоре m1. Восхищаться алюминием новых наушников. Intel atom тоже "рвал" в тестах, когда вышел — а пошёл в массы и "порвался" об обновления Windows и emmc память. Надо сравнивать не только тесты, а интерфейсы, что поддерживает и не "стандартные" сценарии. Браузер с плагинами, с кривой упаковкой (нестандартными кодеками) в "mkv". Компиляция приложений и прочее.
M1 реально прорыв, но 90% тестов заточены на хардварные кодеки в результате чего такие цифры. Но например если сравнивать качество рендера на М1 в том же Da Vinchi Resolve, например, то получается что попиксельно картинка похуже чем на интеле, хотя скорость в несколько раз выше и комп значительно тише и холоднее.
Вот чего у М1 не отнять это очень низкое энергопотребление в сравнении с конкурентами. Система получилась очень удачная — тихая и быстрая.
Если бы на новый макмини можно было ставить что-то другое отличное от макоси, то наверное уже взял бы. Потому что аналогов в таких же размерах и с такой же производительностью сейчас на рынке нет.
P.S. Поддерживаю насчет «Вот так свобода и умирает — под гром аплодисментов.»
Мы стали быстрее компилировать и отображать мегабайтные javascript-ы, но зачем…
Мы стали быстрее компилировать и отображать мегабайтные javascript-ы, но зачем…
Затем, что мы компилируем в сотни и тысячи раз чаще, чем что-то моделируем во всяких MathLab Simulink, Solidworks. А отображаем мегабайтные javascript-ы, думаю, не ошибусь, если скажу, что в миллионы раз чаще.
Это больше вопрос к софту чем к процессорам, если они готовы к оптимизации под m1 то все будет быстро. А вот про js вы конечно зря, вы сами его гигабайтами на дню «отображаете» ваш кэп
Fusion 360 работает на системе (Air 8 ядер и 16 RAM) на равне с (Mac Mini 2018 года с i5 и 32 RAM) а вот рендер картинки во fusion у нового Аир чуть хуже оказался
Проверил работоспособность OpenFOAM( численный расчёт гидроаэродинамики)через Docker так при построение расчетной сетки результаты сильно удивили новый М1 в 10 раз медленнее это сделал.
В Blender новый М1 оказался хуже с большими сетками (от 7 миллионов)
Mac mini 2018 (i5 32 gb Ram) тест построения расчетной сетки занял 562 секунды использовалось при этом 6 ядер и 30 гигабайт оперативной памяти
Mac с М1 (8 ядер и 16 gb Ram) тест построения расчетной сетки занял 5937 секунд использовалось при этом все 8 ядер и 15,75 gb оперативной памяти
Был проведен второй тест, построение заняло 6492 секунды использовалось при этом 4 ядра и 15,75 gb оперативной памяти (почему был проведен расчет на меньшем количестве ядер, было сделано предположение, что оперативной памяти было недостаточно, и чтобы уменьшить задержки в расчетах, снизили количество процессоров)
Программы в которых тестировалось: Docker (есть поддержка M1) во время эксперимента работал стабильно
Программа для построения расчетной сетки (тест) snappyHexMesh от OpenFOAM
И поскольку в 2017 году clang и LLVM сливали GCC и ICC по производительности сгенерированного кода почти двукратно, я бы не исключал, что эппл подтянули свой компилятор чтобы он под ARM начал генерировать вменяемый код, и теперь сранивают нормально собраный армовский бинарник со сгенерированным их же компилятором унылым кодом x86.
Вопрос свободы в контексте «Star Wars» — вообще весьма сложный. У меня сложилось ощущение, что там речь идёт о свободах для высшего слоя общества, а также для маргиналов типа контрабандистов. А вот свобода для простых обывателей (которая определяется скорее материальным достатком, чем политическим режимом) и для любителей научных исследований — в контексте «Star Wars» полностью игнорируются.
Из истории человечества известно, что в период феодальной раздробленности — было много свободы для феодалов и мало свободы для простого народа. А вот при абсолютной монархии — свободу для феодалов сильно сократили, за то свобода для простого народа заметно выросла: ибо при абсолютной монархии становится меньше произвола властей и больше законности.
Поэтому речи сенатора Падме Амидала меня как-то не трогают: мне кажется, он говорил о свободах только для социально близких ему людей. Если ему так дорога республика — то надо было озаботиться благом общества до того, как этим занялся Палпутин. А то ведь для простого обывателя — диктатура коррумпированных политиков и чиновников ничуть не хуже диктатуры императора.
Что же касается компьютеров — то сейчас я ожидаю, что количество свободы для пользователей будет сокращаться на всех платформах. Громкий звоночек прозвенел ещё когда проектировали UEFI — правда, тогда попытка плотного огораживания платформы от альтернативных операционок провалилась. Но это не значит, что такие попытки прекратились — и сейчас надежда разве что на маргинальных производителей, которые смогут обеспечить выпуск неогороженных компьютеров. А крупные корпорации — будут настойчиво продолжать попытки огораживания.
С линуксом будут цацкаться, потому что он много кому нужен, в том числе и многим корпорациям.
Скажите это Intel Kaby Lake. При запуске Win7 на этом (и последующих… мне вот так на рабочем компе пришлось на Win10 раньше переезжать) ядре винда сразу говорит, что апдейтов не будет. Система обновлений отключена. Часть возможностей процессора использовать невозможно.
Intel + MS специально заморочились вместе. Какой профит от этого получил (и получил ли вообще) Intel — мне неизвестно. Но вот выпустить микрокод, который заставил бы Win7 жрать и не пыхтеть — они могли легко. Но и без соглашения с Intel — MS бы не рискнуло такую "фишку" сделать.
Win7 умерла из-за отсутствия поддержки, линукс пилится сообществом, просто так прекратить поддержку не получится. Дрова конечно сообщество не напишет, но с каждым годом ситуация все лучше и лучше. С виндой ситуация обратная — количество багов и глюков в 10ке поражает.
А где свободные мобильные устройства не на android/ios? Какие-то устройства для увлеченных, отстающие по характеристикам на несколько лет?
Сейчас я могу купить совершенно мейнстримное компьютерное железо, собрать совершенно мейнстримный компьютер с производительностью в широком диапазоне на любой вкус и кошелек, и поставить туда хоть Windows, хоть Linux, да хоть BSD. Без необходимости ждать милости от каких-то производителей железа "для энтузиастов". Да и практически любой ноутбук тоже вполне неплохо чувствует себя под Linux.
и мешать использованию посторонних операционок на Mac-компьютерах
А кто мешает?
twitter.com/XenoKovah/status/1339914714055368704
Наоборот, добавили возможность загрузки альтернативных ОС, несмотря на iboot.
Вот это вы зря, не разобравшишсь, да в политику ДДГ полезли.
Палпатин — не абы какой император, а Дарт Сидиус. В общем при всех минусах Республики (судя по имеющимся данным — для галактики ДДГ было бы полезней, если бы она развалилась лет на 500 раньше… и это был далеко не первый её период стагнации), преобразование оной в Империю очень родственно оруэлловским произведениям. Т.е. даже обычному населению стало хуже (а откуда, по вашему у повстанцев через столько лет такая моральная поддержка?!) при том, что улучшений им не завезли (местные царьки так и остались местными царьками… у них просто риски умереть в особо неприятной форме возрасли… проблема только в том, что на место такого царька тут же приходил точно такой же, только более лояльный центральной власти). Про "правящий" класс — и того интереснее — за не то слово Дарт Вейдеру, если помните, в одной из частей он запросто применил душение, за не очень большой провал — удушил насмерть. Да, это воинское подразделение… но я сомневаюсь, что убийство не за предательство адекватно в такой среде. Ну и в любом случае, где нормальные разбирательства? Нет, все решения на откупе под настроение личного порученца императора.
Амидала — не абы какой сенатор, а представитель конкретной планеты. Сенатором которой может быть только оттарабанивший срок правления. Правитель выбирается демократическим образом. Т.е. это не вчистую "местный царёк", у неё реально высокая поддержка среди населений её планеты было. Значит, как минимум, сильных косяков она не допускала (ну за исключением ситуации с оккупацией планеты… в которой она была не совсем виновата — скорее внешние силы подсуетились на момент слабости правительства планеты..., да и с проблемой она всё же смогла с внешней поддержкой справиться)… И да, Амидала — она, а не он.
добавим сюда ещё, что для захвата власти Палпатин уничтожил международную организацию "орден Джедайи", который играл важную роль во внутренней и внешней политике Республики, работая неплохим миротворческим корпусом (и да, не в современном понимании миротворческих корпусов нашей Земли — они старались именно через переговоры уменьшить проблемы всех сторон, в том числе не участвующего напрямую в дипломатическом общении народа), так же они занимались: образовательной деятельностью, спасением населения в зонах конфликтов, спасением заложников, охрана важных лиц, расследованием преступлений и прочими социально-важными занятиями. Кстати, да, орден был именно вырезан. Влючая стариков, женщин, детей. Суммарно 20-60 тысяч человек, если мне память не изменяет.
В общем с точки зрения средней углублённости в ДДГ ваш комментарий выглядит или "хатаскрайним" или просто напрочь поверхностным.
PS и да, при сравнении текущих платформ — неправильно замалчивать какую-либо проблему. Проблема с конфиденциальностью замалчиваться не должна вообще никогда.
А крупные корпорации — будут настойчиво продолжать попытки огораживания.а крупные корпорации, использующие линукс для своих собственных задач, будут отпиливать линукс для того, чтобы усложнить себе решение собственных задач…
P.S. Интересней дождаться появления технологий реконфигурируемого железа для разных задач на основе «FPGA» технологий и опыта в разработке железа от Intel, AMD…
Немного моих домыслов и рассуждений
- Чем обеспечивается производительность М1? Я так и не понял. Говорят, из-за наличия бОльшего количества декодеров. Но мне казалось, что декодер (да и все ядро в целом) занимает довольно скромное место на кристалле, по сравнению, к примеру, с АЛУ, ФПУ и, тем более, кэшем. Поэтому не понятно, что мешает Intel/AMD наращивать их количество, если это действительно так улучшает производительность.
AMD Zen 1 Core Complex
Функциональные блоки в ядре
Сравнение CCX Zen 1 и Zen 2, где кэш занимает еще больше места
Ссылки на источники картинок:
Часто говорят о преимуществах ARM, т.к. они RISC. Имеется ли какое-то преимущество в использовании набора инструкций ARM перед x86? Да, я понимаю, что и те, и те декодируются в uOps, но действительно ли сокращенный набор инструкций позволяет сделать более производительный и эффективный процессор?
Если п.2 верен, то компании-производители x86 могут сделать ход конем и сделать полу-совместимые процессоры, реализующие подмножество x86. Статья, где анализируется количество инструкций, используемых в софте на разных процессорах. С одной стороны, это потеря совместимости, которая является сильной стороной x86. С другой стороны, если уж Apple (компания, не имеющая отношения к разработке х86 процессоров) сделали транслятор x86 -> ARM, то уж компании-разработчики х86 процессоров с опытом в 40-50 лет, должны осилить транслятор полный x86 -> подмножество x86.
Но мне казалось, что декодер (да и все ядро в целом) занимает довольно скромное место на кристалле, по сравнению, к примеру, с АЛУ, ФПУ и, тем более, кэшем.да, занимает. Но бутылочное горлышко скорее в количестве команд, которые процессор может декодировать единомоментно. В случае ARM процессоров, каждая команда кодируется ровно 32 битами, и расширение декодера тривиально. В случае x86 процессора, команды кодируются разным числом байт, т.е. для декодирования следующих инструкций надо либо закончить предыдущие, либо начинать угадывать. Поэтому на x86 масштабирование декодера намного сложнее.
Помимо этого не стоит забывать что в M1 двухуровневый кеш, а в x86 процессорах трехуровневый. Ну и довольно-таки быстрая (4266 МГц) память с низкими задержками за счет её интегрированности.
но действительно ли сокращенный набор инструкций позволяет сделать более производительный и эффективный процессор?как раз статья про это.
А вот разный размер команд — спасибо, не подумал.
как раз статья про это
Где говорится, что сжатие команд и macro-op fusion позволяет сделать минимальный ISA, который не проигрывает, а даже иногда выигрывает у более раздутых ISA (x86, ARM). Которые, кстати, согласно этой статье, тоже используют эти техники.
А в чём проблема (кроме потребления памяти) поставить выравниватель? Правда интересно.
Так вы не поняли идею — код, загружаемый в кеш (L2, например), прогонять при загрузке через выравниватель. А на процессор (его декодеры) отдавать уже выровненый код. Тут, конечно тоже будут проблемы со скоростью обработки, но при небольшом оверхеде кеша — горлышко можно изрядно расширить.
Чем обеспечивается производительность М1?
Они явно заточили хардварно под определенные популярные типы задач. Типичный пример работа с обработкой видео — явно быстрее чем на интеле, но по факту попиксельно качество оказалось чуть хуже.
Чем обеспечивается производительность М1
Вот этим
www.anandtech.com/show/16226/apple-silicon-m1-a14-deep-dive/2
— Гигантские и быстрые кэши
— Глубокое OoO. В буфере переупорядочивания вдвое больше команд чем у TigerLake.
— Предсказатель переходов лучше чем у Intel.
— Много ALU (6 x int, 4 x simd)
— Огромная ПСП — ~60ГБ/с на одном ядре(!).
— Набор инструкций ARMv8
Поэтому не понятно, что мешает Intel/AMD наращивать их количество, если это действительно так улучшает производительность.
Переменная длина инструкций. Инструкция х86 занимает от 1 до 15 байт.
Декодеров не поставишь слишком много, да и незачем.
Современные процессоры Intel/AMD/ARM используют кэш микроопераций.
Т.о. ширина декодирования не имеет значения для горячего кода (который уже выполнялся).
Для холодного же кода средний IPC в большинстве программ около 1 и каждые 3-5 инструкций переход.
но действительно ли сокращенный набор инструкций позволяет сделать более производительный и эффективный процессор?
На эту тему сломано много копий. Имеющиеся исследования основаны на старой архитектуре ARMv7. Но я скажу что ARMv8 позволяет.
LD/ST архитектура с 32 регистрами позволяет сильно уменьшить количество обращений в память. А это весьма затратные операции.
ARMv8 в частности имеет много удобных инструкций.
Поэтому зачастую их требуется меньше чем на x64 для одного и того же участка кода.
компании-производители x86 могут сделать ход конем и сделать полу-совместимые процессоры,
Это не даст ничего, но лишит их всего что у них осталось — совместимости.
должны осилить транслятор полный x86 -> подмножество x86.
Он аппаратный. Старые инструкции реализованы в микрокоде.
У Apple же это временное решение на время смены архитектуры.
монструозный микрокод транслирующий x86 и выведи наружу своё RISC ядро
1) Микрооперации это не RISC инструкции.
От микрокода не избавиться, т.к. на нём функционал процессора написан.
Микрокод есть даже в самом простом RISC — ARM1.
Each instruction in the ARM1 is broken down into 1 to 4 microinstructions.
www.righto.com/2016/02/reverse-engineering-arm1-processors.html
2) Программы выполняются из uOp кэша. Legacy decode в основном нужен для холодного кода.
3) Это никому не нужно
Intel — компания с капитализацией в 10 раз большей, чем у AMD.
Теперь каверзный вопрос. Почему компания, которая скорее всего превосходит конкурентов по научно-техническому потенциалу не идет по пути увеличения мощности процессоров?
меньшей, чем у Apple, но даже не в 2 раза.
Market cap Apple — $2.242T (Yahoo finance)
Market cap Intel — $189B (Yahoo finance)
Ну да, не в два. Поэтому вопрос действительно каверзный, но, надеюсь, я на него ответил.
Ну а «убивать GPCPU ускорителями» — не новая тема, вот поверьте. Не знаю, какого вы года рождения, но до моего рождения она точно уже существовала. :)
Если что — я у них не на зарплате ))
не мог освоить техпроцесс новый
Скорее всего мог, но не было потребности. Больше затрат, чем выгоды. Организации обновляют ПК в лучшем случае раз в 5-10 лет. Игровой мощности им не надо. Нужна дешевизна, надежность и потребление малого количества ватт.
У эппл другая ситуация. Гугл поджимает, заявляет новые оси и делает устройства, майкрософт развивается. Эппл находится в условиях большей конкуренции, ему кровь из носа урвать сейчас кусок прибыли побольше. Причем торгует он в топ-сегменте, где для потребителя деньги не главное. Главное понты. Ну почему бы не выпустить более мощный проц. Дураком надо быть чтобы не выпустить, если такая возможность есть.
Скорее всего мог, но не было потребности. Больше затрат, чем выгоды. Организации обновляют ПК в лучшем случае раз в 5-10 лет. Игровой мощности им не надо. Нужна дешевизна, надежность и потребление малого количества ватт.так-то более современный техпроцесс дает потребление меньшего «количества ватт». Не говоря о том, что чем лучше новое поколение процессоров относительно предыдущего, тем чаще потребители будут заменять свою технику.
Причем торгует он в топ-сегменте, где для потребителя деньги не главное. Главное понтывот почему только когда доходит дело до качественной техники ноутбуки apple внезапно оказываются далеко не самыми дорогими? А если хотите прям попонтоваться — берите лучше razerbook. Последние кстати даже неплохи.
Если допустим у кого-то есть все ресурсы сделать мобильное приложение и занять топ в каком-то сегменте, не значит, что имеет смысл делать. Знание особенностей сегмента, затрат на «сделать», может говорить, что выгоднее вложиться во что-то другое.
Просто рассуждения детско-холиварные, что если эппл выпускает процы мощнее, то интел загинается и у менеджмента проблемы.ну пока что это действительно так — apple не конкурирует с intel напрямую, и у них слишком малая доля рынка чтобы их косвенное влияние на intel было существенным.
Однако во-первых, intel резко теряют долю рынка в угоду AMD, во-вторых, intel делает перестановки менеджмента. Это уже весьма явные индикаторы проблем.
Скорее всего мог, но не было потребности. Больше затрат, чем выгоды.
Судя по всему, как раз «не мог». Не мог — в смысле, не мог с достаточным выходом годных для коммерческой эксплуатации. Потребность-то как раз была. При всей неповоротливости менеджмента крупных компаний, ситуация, когда другие чипмейкеры успешно осваивают более тонкие техпроцессы, а в Интеле искренне считают, что сейчас ещё рановато, звучит совершенно невероятно.
Хотя с другой стороны да, и это они тоже переживут.
Но за силу темного лорда есть своя цена.И какая цена?
Увидеть за 50 секунд смерть Intel и рождение новой галактической империи