Pull to refresh

Comments 283

Соотношение сторон экрана 3:02. Кто-то слишком торопился с презентацией.
Ну лично мне привычнее, когда пишут 3000х2000 соотношение сторон 3:2, а не 3:02.
просто 2 указано в восьмиричной системе

TL;DR: Intel решил показать, чем PC лучше Mac, выставив это своей заслугой. Всё остальное (кроме первого сравнения) — лишь заслуга монополии Intel. С играми сравнение несколько странное ИМХО — игра на встроенной графике с хорошей картинкой и FPS не очень похожа на реальность.

Берём AVX и всё, M1 улетел в трубу. Мир серьёзных вычислений — это не для ARM.

И теперь рассказывайте, что M1 выигравает за счёт специальных блоков.

AVX, все-же, это довольно таки general-purpose векторное расширение. А специальные блоки M1 — это конкретный силикон заточенный под одну какую-то конкретную функцию (например декодирование того или иного видео-формата)
Так-то у Intel есть графические чипы с QuickSync — заточенные под кодирование и декодирование видео. По крайней мере h264/h265 точно можно.
Оно, если не ошибаюсь, есть у всех процессоров, начиная с Sandy Bridge. А у Tiger Like из статьи — аппаратно можно даже AV1.
Изначальный коммент был про то, что скорее всего M1 без специализированных блоков будет уже не так быстр.
В то время как AVX позволяет довольно много чего делать универсального.

То, что в Intel процессорах есть аппаратные ускорители конкретных задач не отменяет того, что там есть и AVX.

P.S. Вообще я не бегу утверждать, что Intel быстрее чем M1, я просто поясняю мысль. А так — судя по разносторонним бенчмаркам, в том числе и по скорости компиляции кода, которая никак не использует аппаратное ускорение, М1 — довольно неплох в задачах общего назначения.
Это термин из мира FPGA-разработки, но тут я думаю тоже применим. Силиконом называют специализированные блоки FPGA чипа, заточенные под ту или иную задачу (например это может быть DSP процессор, контроллер памяти, или еще что, даже полноценный ARM процессор). (А в противовес к силикон-у, fabric-ом нызывают логику «сшитую» из FPGA-блоков).
Мир серьёзных вычислений — это не для ARM.

Хорошо, что Fujitsu с их A64FX о вашем мнении не узнали;)

A64FX расширен разработанным самим Fujitsu набором комманд, схожим с AVX512. В обычных ARM (и даже M1) такого расширения нет, и у ARM производители его не купят.
С другой стороны, это ведь логичный следующий шаг со стороны Эппла: лицензировать у Fujitsu этот доп.набор комманд и добавить его реализацию в свои процы. Правда, это увеличит размер и так не маленького ядра процентов на 30.

С другой стороны, это ведь логичный следующий шаг со стороны Эппла: лицензировать у Fujitsu этот доп.набор комманд и добавить его реализацию в свои процы. Правда, это увеличит размер и так не маленького ядра процентов на 30.
так у них уже сейчас монокристалл на 16 млрд транизсторов в M1. Если делать 8 больших ядер, ещё кеша и плюс вот эти процентов 30, то получится кристалл уже под 30 млрд, как у гравитейшена2 (передают привет серверы на арм), и что-то мне кажется, стоимость такого кристалла не будет такой уж маленькой на ближайшие пару лет, чтоб пихать в простые девайсы…
A64FX расширен разработанным самим Fujitsu набором комманд, схожим с AVX512.

Враньё.
1) SVE разработан совместно ARM и Fujitsu
2) SVE это стандартное расширение ARMv8.2.
3) SVE не схож с AVX-512.
AVX-512 это SIMD с фиксированной архитектурной длиной вектора, а SVE код не зависит от длины вектора — она может меняться от 128 до 2048 бит в зависимости от имплементации.

и у ARM производители его не купят.

Враньё.
servernews.ru/1021265
Ядро Neoverse V1 имеет поддержку SVE (2x256 бит).
Процессор с этим ядром (SiPearl Rhea) выйдет в следующем году.

Правда, это увеличит размер и так не маленького ядра процентов на 30.

Чушь. У Apple A14/M1 и так SIMD 512-бит (4 ALU по 128 бит).
Чтобы переделать NEON в SVE не нужно много места.

Ну почему сразу "враньё"? Враньё — это намеренная попытка ввести в заблуждение. В данном случае, я сам заблуждался и (признаюсь честно) поленился проверить.


Спасибо, что исправили мои ошибки!

Я не могу знать вашей мотивации (ибо не являюсь интернет-телепатом), но когда не уверен и лень проверять, можно писать «насколько я знаю», «предполагаю», «мне кажется» и т.п.

Не за что.
> но когда не уверен и лень проверять, можно писать «насколько я знаю», «предполагаю», «мне кажется» и т.п.

Вы абсолютно правы. Я не должен был пренебрегать этим правилом/приёмом.

Если у вас есть сравнительные тесты AVX и матричного сопроцессора в M1 — поделитесь. А то, знаете, пока это больше похоже на разницу в наименованиях...

В мир серьёзных вычислений ARM заходит сверху — начиная с самых быстрых
суперкомпьютерных чипов.
В пару Fujitsu A64FX вскоре появится Rhea:
www.anandtech.com/show/16072/sipearl-lets-rhea-design-leak-72x-zeus-cores-4x-hbm2e-46-ddr5

Берём AVX и всё, M1 улетел в трубу.

Окажите себе услугу — почитайте что-нибудь про NEON, SVE.
Клиентский Sunny Cove имеет один 512-битный юнит, что даёт 32 FLOPS/такт (Single Precision).
M1 достигает те же самые 32 FLOPS/такт.
Да, за счёт частоты Интел будет несколько быстрее, но только вот многоядерные Интелы работают на тех же ~3ГГЦ.

А это ещё не всё. В M1 есть кастомное расширение AMX — матричный умножитель.
gist.github.com/dougallj/7a75a3be1ec69ca550e7c36dc75e0d6f
medium.com/swlh/apples-m1-secret-coprocessor-6599492fc1e1
nod.ai/comparing-apple-m1-with-amx2-m1-with-neon

Apple’s M1 custom AMX2 Matrix Multiply unit can outperform ARMv8.6’s standard NEON instructions by about 2X.
Берём AVX и всё, M1 улетел в трубу. Мир серьёзных вычислений — это не для ARM.
берем ARM SVE…
AVX, все-же, это довольно таки general-purpose векторное расширение
каждый день вижу AVX в general purpose софте, говорят он очень хорошо ускоряет перекладывания json и xml (шутка, конечно же).
Мир серьёзных вычислений — это не для ARM.
yet
Имею ноутбук с 1185G7 и GTX1650. По тестам GTX всего в 3 раза быстрее встроенной, и для 7...10-летних игр в FHD встроенной вполне достаточно. При этом компьютер разгоняет вентиляторы до половины от максимальных оборотов. ИМХО очень удачно получилось.
MSI Prestige 15 A11SCX-068RU, машинка очень нравится, только режим Modern Standby помотал нервы… Но нашёл, как отключить, на Ямаркете написал в отзывах. Обращайте внимание на этот режим при выборе, не на всех машинах его можно отключить!
Мда, Майкрософт в своём репертуаре. Так на некоторых ноутах после отключения этого режима ещё и в сон нельзя устройство перевести.
Я не про мощность а про то, что Вега- и Ирис-встройки уже хватает не только для просмотра фильмов, но и для игр. При этом не выедая батарею в ноль минут за 40.
Если отбросить предрассудки многих об AMD, то вега позволит комфортно играть в большинство онлайн игр и достаточно комфортно играть в ААА проекты покрутив настройки. Да на ультрах 60фпс поиграть не выйдет, но мы же понимаем, что игра на ноутбуке — это или скоротать время или временная замена ПК/консоли.

Так и думал, что они разные процессоры для теста производительности и для теста автономности использовали. Интересно как там с ёмкостью аккумуляторов и разрешением дисплея у ноутбуков, а ещё что там за нагрузка такая была. Подозреваю, что по минимуму, потому что чем больше нагрузка тем больше влияние непосредственно процессора.

Мой компьютер с 4К дисплеем и 1185G7 в простое с десятком запущенных приложений потребляет от сети по бытовому ваттметру 10...11 Вт, с учётом 80%-ного КПД БП это 8...9 Вт. При ёмкости батареи 80 Вт*ч у него всё в порядке с автономностью. Процессоры этой линейки отличаются только максимальной частотой, а в простое частоты и потребление примерно одинаковые.

Для современных процессоров веб-браузинг, просмотр фильмов, редактирование документов — это практически простой, они больше 3...5% не грузят.
Регулярно вылезает Antimalware service executable с загрузкой одного ядра в топ :(
Не постоянно, конечно, но несколько раз в час на на минуту.
Это Защитник Windows чудит. Поправьте ему условия для автозапуска, отключите проверку самого себя (на чём он любит зависать) или отключите совсем, если не ходите по варезным и порносайтам…
по бытовому ваттметру

Как инженер-электроник, могу сказать что наиболее вероятно бытовой «ваттметр» на низких мощностях вам будет показывать нечто между фазой луны и положением солнца.
Потому что:
1185G7 8...9 Вт

Можно открыть официальный сайт Intel и обнаружить что минимальный TDP 12 Ватт (да, я в курсе что там средняя величина, но тем не менее): ark.intel.com/content/www/ru/ru/ark/products/208664/intel-core-i7-1185g7-processor-12m-cache-up-to-4-80-ghz-with-ipu.html
То есть по оказаниям вашего ваттметра весь ноутбук, вместе с экраном, процессором и периферией потребляет меньше, чем потребляет процессор по даташиту производителя.
Если вы инженер, то должны знать, что TDP — это потребляемая мощность при 100%-ной загрузке всех ядер, в таком режиме при настройке 15 Вт ваттметр показывает 30 Вт. А при Idle порядка 97% потребление процессора и его периферии резко падает до единиц Вт.

Ваттметр меряет с помощью АЦП контроллера СТМ8 падение напряжения на шунте, поэтому точность приемлемая и вроде даже с RMS, начинает показывать от 0,1 Вт.
При лёгком снижении напряжения питания и максимальной частоты процессор с паспортным TDP 51 Вт при стопроцентной загрузке ядер и видеоядра показал 17 Вт максимального потребления. При офисной нагрузке/просмотре видео — 5-7 Вт.
Вообще создаётся впечатление, что большинство процессоров со времени первого Pentium работают в заводском разгоне, тем более видеочипы.
Если вы инженер, то должны знать, что TDP — это потребляемая мощность при 100%-ной загрузке всех ядер, в таком режиме при настройке 15 Вт ваттметр показывает 30 Вт.

Если мы говорим об Intel, то TDP это величина, которая говорит в целом мало о чём: www.anandtech.com/show/16084/intel-tiger-lake-review-deep-dive-core-11th-gen/5
А при Idle порядка 97% потребление процессора и его периферии резко падает до единиц Вт.

Если бы это было действительно так — из спящих режимов ноутбуки могли бы не выходить десятками суток (учитывая что экран тоже отваливается). Но это немножечко не так.
8..9 Вт… ваттметр показывает 30 Вт

И вот тут вопрос:
У вас в idle потребление всего ноутбука 8...9 Вт, а при загрузке подпрыгивает до 30. Вы, конечно, не уточнили чем загружаете и что, но если это синтетика — нагрузка может быть точечной и в процессор. Допустим, что 8...9 Вт это именно вся обвязка: матрица, SSD, оперативка и всякое другое барахло. Добавляем к 8 15 Вт и получаем 23. Откуда ещё 7? :)
напряжения на шунте

Да, действительно можно получить и вполне себе неплохую точность, но в таком случае шунт надо подбирать так, чтобы желаемый измеряемый ток попадал в две трети диапазона измерения. Например, нормальные шунты выпускаются на такие измеряемые ряды токов: 100мА, 200мА, 500мА, 1А, 2А… ну вы поняли.
Ваша бытовая розетка, наиболее вероятно, рассчитана минимум ампер на 10. То есть, условно 2,2 кВт (при условии подключения ТЭНа). Вы же измеряете ей мощность 30 Вт. Сколько сколько это в процентах?
И да, я искренне сомневаюсь, что в бытовой розетке внутри шунты на разные диапазоны токов и автоматическое их переключение.
RMS

Чёткие пацаны используют True RMS :)
Особенно учитывая что потребитель — импульсный блок питания, который прекрасно шумит (скорее всего) в питающую сеть.
И самый главный вопрос: а как ваша розетка измеряет косинус Фи, без которого на переменном токе можно измерять только ВА, а никак не Вт? :)
P.s. я ещё раз говорю что бытовые розетки это индикатор, а никак не средство измерения. Особенно если вы пытаетесь ей измерить мощности, которые едва дотягивают даже до 1% диапазона измерения.
Если бы это было действительно так — из спящих режимов ноутбуки могли бы не выходить десятками суток

Это уже давно так, почитайте про режим Modern Standby. Только не десятки суток — ёмкость ноутбучных батарей 50...80 Вт*ч, поэтому только пару суток.

7 Вт взялись из-за потребления периферии, которая в спящем режиме тоже резко снижают потребление. Да и 15 Вт для процессора — скорее маркетинговая велечина, нежели инструментально измеренная и задокументированная.

шунт надо подбирать так, чтобы желаемый измеряемый ток попадал в две трети диапазона измерения.

У меня есть китайские весы на 500 грамм за 7 долларов, которые взвешивают с разрешением 0,01 грамм: видят даже очень маленький кусочек бумажки. Вот с помощью такой же магии 2-кВт ваттметр видит доли ватта — оверсэмплинг и интегрирование, и из 10-битного АЦП (если там стоит не СТМ32 с 12-битником) вытаскиваются сравнительно честные 12...13 бит. Косинус фи отлично меряется и арифметически корректируется с помощью второго канала АЦП, синхронно измеряющего напряжение.
7 Вт взялись из-за потребления периферии, которая в спящем режиме тоже резко снижают потребление.

Ага, например экран. Или SSD, который действительно будет кушать меньше. Но и синтетика его не прогрузит. Плюс вы говорили о режиме покоя, а не о спящем режиме ;-)
Или у вас ноут в режиме покоя 7 ватт кушает?
Да и 15 Вт для процессора — скорее маркетинговая велечина, нежели инструментально измеренная и задокументированная.

Я собственно об этом же и говорил
Вот с помощью такой же магии 2-кВт ваттметр видит доли ватта — оверсэмплинг и интегрирование, и из 10-битного АЦП

Ага. Жаль, что производители нормальных СИ про это не знают. И в модулях измерения токов 4...20 мА стоят шунты не на 10А.
Косинус фи отлично меряется и арифметически корректируется с помощью второго канала АЦП, синхронно измеряющего напряжение.

Прочитайте на досуге про измерение несинусоидальных токов и напряжений. А ведь именно такой ток у вас и будет на импульсных блоках питания. Потом уточните как измерять косинус фи в случае таких токов.
Поэтому, вы уж извините, но я вам в очередной раз повторяю: бытовая розетка и СИ это две принципиально разных вещи. Проверено бытовыми розетками и СИ с сертификатами СИ и обязательной поверкой.
З.ы.
У меня есть китайские весы на 500 грамм за 7 долларов, которые взвешивают с разрешением 0,01 грамм: видят даже очень маленький кусочек бумажки.

Вот бы ещё знать сколько реально этот клочок бумажки весит. А то один метр нормального кабеля под тензометрическую ячейку стоит дороже этих весов в сборе.
Это уже давно так, почитайте про режим Modern Standby.

Это который народ с матами вырубает, потому что спящий режим сжирает батарею.

Когда нанял блмщиков и поувольнял инженеров… Благо кредиты сейчас бесплатны

Intel Tiger Lake лучше Apple M1… Трам-пам-пам… Сенсорным экраном!

Корректнее было указать в заголовке — intel попыталась продемонстрировать
UFO landed and left these words here
По данным Intel, система на Tiger Lake оказалась, в среднем, вдвое мощнее.

Забавные ребята. Получается, Интел утверждает, что как только выйдет Apple Silicon MacBook Pro 16” с удвоенным-утроенным количеством мощных ядер, нужно брать? Это у Интел какая-то антиреклама их продукции получилась, даже не заглядывая, что они там в тестах подкрутили :)

Ну, если честно, то всё же вроде как 8 ядер на 10нм у интела в ноутбуках вроде как на это полугодие должно таки появиться. И даже вроде как к январским анонсам ещё ожидалась инфа. Но с учетом страдания интела при освоении 10нм, это всё ещё сильно не факт.
Но если выкатят, то это будут весьма интересные решения*, правда вероятно не по самой интересной цене.
*это если не забывать, что в пару к таким процессорам ставятся ещё и нормальные графические адаптеры зачастую, то есть они ещё и в играх смогут потягаться — точно выкатят новые слайды о том, как решения на интел порвали всех…

Т.е. сам склоняешься к м1?
/не знаю кто и за что влепил синус — видимо, тебя опять по диагонали читали/

Ну, 4/8 интела или амд меньше 8 ядер реально не конкуренты m1 в принципе ничем.

4800U/5800U — конкуренты ценой (во всяком случае на 5800U надеюсь, что будут конкурентны по цене, да), пусть и с худшим экраном (далеко не всем это настолько критично).
4800H/HS/4900H/5800H + видик от 2060/3060 — без вариантов для игр или задач на видео при том, что на M1 видик даже внешний не используешь. M1X в этом плане пока революций тоже не обещает, насколько слухи ходят.
Так что себе я выбирал бы на M1/M1X если б или цена не играла такой роли, или не нужна были игровая производительность, зато по времени хотелось бы максимума (ну и не было требований к памяти в 32 гига или возможности заменить ssd).

А у интела же по мне сейчас провал полный, i7-1165G7 пихают только потому, что интел явно выкрутил руки производителям и ноуты с самыми топовыми видиками и с лучшими экранами делают больше всего на интеловских процах, а амдшные имеют планку не выше такого-то. А вот их 6/12 и 8/16 от них дали бы рынку прочих ноутов (не эпл) весьма нехилый буст, но когда они их выкатят (да и выкатят ли) и по каким ценам будут рынку предлагаться решения на них — это сейчас ещё больший вопрос, чем характеристики M1X и стоимость девайсов на них.

Поэтому да, хотелось бы хорошего пенделя интелу и чтоб он наконец-то стал шевелиться, а не продолжил традицию 4 летнию по пинанию известных органов, когда прогресс шёл за счёт наращивания количества ядер при диком раздувания тдп.
А АМД пнуть сейчас не получится просто потому, что они и так уперлись в TSMC)
Так TSMC и для интела чипы производит…
Пока — нет. Интел собирается там заказывать, собираются заводы под интел строить и т.п., но на данный момент не производит и планируемые заказы на 5 нм и прочее будут не сильно велики.
Более того, в последнем квартале 20 года они в 4 раза нарастили выпуск 10нм относительно оного в 19 году, что, видимо, и привело к росту их доли на фоне проблем с возможность производства для АМД и не только у TSMC.
У 4800/5800 есть один недостаток — их нет. И ставят только в low cost ноутбуки с дешёвенькой матрицей и без внешней видеокарты, уровня «ребёнку в школу ходить»… Дороже 1000 долл с приличным матовым экраном и более-менее нормальной видеокартой — только Интел.
И ставят только в low cost ноутбуки с дешёвенькой матрицей и без внешней видеокарты, уровня «ребёнку в школу ходить»
Это даже не описание ноутов с 4800U.
Далее: 4800H без видика так вообще поискать надо.
Итого я вижу целенаправленную ложь, когда для начала целенаправленно смешали две разных серии U и H, после чего обрисовали максимально негативно, стремясь приписать к общим недостатком позиционирование одной из серий процов.
4800Н — 45 Вт. Спасибо, печка не надо.
1185G7, M1, 4800U/5800U — 15...28 Вт процессоры, вы действительно не видите разницы с 45 Вт? Вместе с 30-Втной обрезанной 1650 получается тихий, долгоживущий и достаточно мощный компьютер для работы. И вот на AMD такой конфигурации не было, когда я выбирал новый компьютер, хотя они появились раньше.
4800Н — 45 Вт. Спасибо, печка не надо.
Настолько печка, что его можно и задушить, и легко ниже получить потребление? И эти люди на IT-ресурсе пишут какое амд плохое?
Отличный аргумент.
вы действительно не видите разницы с 45 Вт?
Да, с учетом любви интела лгать о тдп — не, не вижу. Так-то у него 95 ватт называются процы, которые до 250 жрать умудряются. Потому что при интеловском наборе программ и простом использовании вы увидите тдп в 95 ватт.
У амд же тдп заявлено для упора в 100% при всех ядрах на базовой частоте, насколько помню. А так 4800H это именно что возможность получить максимум на все деньги, но легко можно и урезать.
Почему же тогда AMD выпускает 4800U и 4800H, если, по вашим словам, нет разницы? Выпускал бы один 4800H, а производители душили бы его на нужном уровне.
У амд же тдп заявлено для упора в 100% при всех ядрах на базовой частоте

Anandtech с вами не согласен:
image2
Почему же тогда AMD выпускает 4800U и 4800H, если, по вашим словам, нет разницы?
Потому что кристаллы 4800U могут чуть меньше потреблять, например, на базовой 1,9 или при всех 8 ядрах на базовой 4800H 2,9 Ггц будут потреблять не меньше, а то и больше, если загрузить по максимуму.
При этом в тестах на синглкоре, где упор в 4,2 максимальные на одно ядро — результаты одинаковые. Т.е. всё упирается в заданный ТДП и охлаждение.
Вот и вся разница.
PS. 4800U — это 25 ваттный проц, его могут ограничить в 15 жестко или нет, если система охлаждения позволяет. То есть ограничение не на потребление, а на температуру задаётся. При этом одну и ту же задачу он сделал потратив меньше Джоулей, что и показано. Прекрасный пример.
А печка где?
Печка в том, что в ноутбуках обычно сильно ограничены возможности по андерклоку/андервольтажу. Для моих потребностей достаточно этого 1185G7 в лимите 15 Вт, и в момент компиляции его вентиляторы даже я в офисном шуме не слышу. А 45-Втный проц взревёт как подбитый бомбардировщик, хоть и скомпилирует в 2 раза быстрее. Возможно, стереотипы, но у нас в офисе есть такие компьютеры и на переговорах соседи оборачиваются на шум СО.
Так интел же вырубил андервольтаж вообще из-за какой-то там уязвимости.
Из вашей картинки видно, что за лимит он выходит ТОЛЬКО при включённом Адаптиксе, когда производительность ограничивается возможностями системы охлаждения. А турбо-режим есть у всех современных процессоров, и отключать его, при большой теплоёмкости СО, нет смысла.

Не только. Он полминуты жжёт на 50-40 Вт при обычном "28W" профиле. Этого вполне достаточно, чтобы основательно прогреть всю систему охлаждения и запустить вентиляторы на полную.


А турбо-режим есть у всех современных процессоров

В Apple M1 нету :)


А вообще, эти профили очень сильно зависят от производителя ноутбука. Как пример, одна и та же нагрузка на одном и том же процессоре: Dell XPS 13 9310 (обзор), Razer Book 13 (обзор), HP Pavilion 13 (обзор)

Нет, он кочегарит до срабатывания первого лимита и запуска вентиляторов на минимальной скорости, потом ограничивает частоты ядер — в моём компьютере именно так. Согласен — это зависит от заводских настроек, и в разных моделях может работать по-разному.

В М1 обязательно подвезут турбобуст, возможно, сейчас у них временные сложности, это же первый их процессор.
это же первый их процессор.

Вроде как далеко не первый, если считать мобильные. Но да, на десктопе свои правила, там можно и 200А попытаться скушать.

Конкретно в M1 не подвезут, он спроектирован именно под такую работу. Турбо-буст вообще нужен чтобы балансировать на пределе системы охлаждения, обрабатывая "взрывную" нагрузку. Apple выбрала приоритетом длительность автономной работы и стабильность производительности вне зависимости от типа и длительности нагрузки. Даже Air без активного охлаждения сохраняет 80-85% максимальной производительности при "троттлинге".


И, да, это далеко не первый их процессор.

В качестве плюсов своей продукции компания также привела тот факт, что ноутбуки на Tiger Lake могут оснащаться сенсорным экраном

У меня 14 дюймовый ноутбук «трансформер» с тачскрином. Только вот в Windows толку от него не вижу. Хорошего софта, который под него был бы заточен, так и не нашел. Может кто то подскажет?
В долгих перелетах можно играть в Civilization 5 в особом режиме для тач-енаблед девайсов. Юнитов там по карте перетаскивать пальцем, можно сказать, «перстом указующим».
Еще фотки удобно листать, свайпая пальцем как на телефоне.
Ну и можно PDF с компьютерной литературой в альбомном режиме листать а ля «большая читалка».
Больше реальных применений за 4 года пользования не нашел.

То есть тоже самое что можно и делать на android/iOS планшете.
Я искал под свои задачи что то более узкоспециализированное, типа на ходу видео смонтировать, фотки поретачить и пр. В итоге на android смартфоне это делать удобнее, так как там софт именно под тач заточен. А на ноуте клавиатура + тачпад (мышь беспроводная).
В windows store до сих пор практически один лишь шлак.

А не подскажете, кстати, чем легко и просто прямо на андроидотелефоне смонтировать (хотя бы порезать) без знаний деталей, на уровне «домохозяйки».

При наличии пера удобно рецензировать документы. Но рецензия с клавиатуры удобнее (а) тем, что не нужно таскать с собой перо, которое, почему-то, производители практически любого имеющего его ноутбука не сопроводили слотом в корпусе ноутбука для его хранения, (б) для последующих обработчиков, т.к. им не придется читать рукописный текст, вводить его с клавиатуры при правке документа, удалять рукописные комментарии из итоговой версии.


Тач удобен при работе на коленках, когда мышкой невозможно или неудобно пользоваться. Он иногда бывает быстрее тачпада, причем даже отличного. Я периодически ползуюсь тачем даже совместно с мышью. Да, он не делает погоды, его отсутствие можно пережить, но когда он есть — хорошо. При этом для ноутов-трансформеров он обязателен по определению, иначе смысл теряется.


Периодически ловлю себя на попытке использовать тач на том же Air M1. Где он может быть еще актуальнее ввиду возможности использования ios-приложений.


PS И да, рука действительно устает, т.к. в отличие от планшета, при использовании тачскрина ноута она обычно висит в воздухе, плюс целиться нужно точнее. Но тем не менее, при периодическом использовании — удобно.

Ну не знаю, какой вам софт нужен. У меня когда-то был нетбук с сенсорным экраном. Я потом долго отвыкал не тыкать в экран пальцем. Обычные приложения — браузер, word, рабочий стол — гораздо проще и удобнее, даже при наличии беспроводной мышки. А в дороге, когда для этой мыши места не хватает, так вообще находка.
Подозреваю, что это все исключительно из-за отвратительно неудобных и мелких тачпадов в нетбуках того времени.
Тыкать в крошечные, незаточенные под тач-управление элементы? Ну не знаю, не знаю.
Ну если не пользовались, то может быть. Тачпад у вас никто не отбирает, кстати. Но даже большой тачпад не так удобен, чтобы перемещать указатель мыши через весь экран. С сенсорным экраном вы тыкаете примерно в нужную область, а дальше уже тачпадом. Выделить какую-то область — опять же на сенсорном экране проще, чем сделать это тачпадом. Масштаб — то же самое. Ссылки на странице, запустить программу с рабочего стола, переключиться между программами — для этого тачпад вообще не нужен. Мне почему-то еще запомнился сценарий заполнения полей ввода, особенно если их много на странице. С сенсорным экраном проще перейти к тому полю, которое нужно отредактировать.
Беспроводная мышь проигрывает тем, что при работе с клавиатурой нужно отвлекаться на ее поиск и определения курсора на экране. А здесь куда пальцем ткнул, там и будет курсор.
Выделить какую-то область — опять же на сенсорном экране проще, чем сделать это тачпадом.

нет


Масштаб — то же самое.

нет


Ссылки на странице, запустить программу с рабочего стола, переключиться между программами — для этого тачпад вообще не нужен.

на сенсорном экране я постоянно промазываю — в частности — на телефоне, когда хабр в десктопном варианте листаю. Очень неудобно. Лучше уж тачпад. ей-Богу


А здесь куда пальцем ткнул, там и будет курсор.

проблема в том, что элементы управления должны быть циклопического размера, чтобы пальцем можно было попасть в один элемент. Либо стилус. Но тогда все преимущество сенсорного экрана пропадает


В общем — все Ваши аргументы — вкусовщина.
Не говорю уж о паттернах работы, когда нужно набирать много текста (предлагаете переносить руку с сенсора на клаву и назад? или сенсорную клаву использовать ?)

У вас свой опыт, у меня — свой, я его вам не навязываю. Кто его знает, что у вас за ноутбук был и что за руки (пальцы). Разница в опыте может быть даже из-за софта управления жестами.
Тем не менее уже то, что есть люди подобные мне, которые имеют имеют положительный опыт работы с сенсорным экраном уже означает, что сенсорный экран не бесполезная вещь даже при отсутствии какого-то специализированного софта.

Я не против, чтобы и Вам тоже было удобно, но все-таки для сенсора есть планшет (а не ноут). И я очень не хотел бы, чтобы у меня на ноутбуке были элементы управления циклопического размера. Как, например, плиточный интерфейс W10 — буэ. Если б разрабы могли предоставить два режима работы для операционки и для приложений… Но сами знаете ) что выйдет

В планшете экранная клавиатура занимает половину экрана и на этом можно ставить точку на «планшете для работы». Планшет с клавиатурой — это то же самое, что и ноутбук с сенсорным экраном. На своем нетбуке я мизинцем легко попадал в регулятор громкости, что уж говорить про куда более крупные иконки. И у ж тем более я против двух режимов работы — еще одна сущность добавит проблем, но не решит их. И в win10 он, кстати, остался еще со времени win8, но у меня не прижился. Может быть и потому, что у меня был не планшет.

Вы похоже просто на маках 2015+ тачпадом не пользовались. На самом деле куда удобнее когда есть нормальный тачпад, нежели сенсорный экран.

Последняя причина по которой я выбираю ноутбук — это тачпад. Но все же буду признателен, если вы объясните чем же он так хорош.
Сам тачпад на маках вроде бы не сильно отличается от остальных ноутов, но благодаря макосному софту им пользоваться реально удобно. До такой степени, что тачпады продают в том числе и отдельно, для тех у кого стационарные компы (аймаки, мак про и миники). Беда в том, что если поставить на мак винду или линукс, волшебный эппловский тачпад превращается в самый обычный.

\… а если поставить что-то вроде TouchEgg, то самый обычный тачпад (главное, чтобы мультитач на 3-5 точек был, что давно не новость) становится волшебным — и без всяких MacOS?

Жесты несколькими пальцами есть много где, но тут нужна хорошая интеграция и проработанность. На маке говорят она идеальная. Под виндой ХЗ, мне нормально было, сравнивать не с чем.

Не совсем. Его можно нажимать в любой области, потому что там нет физических кнопок под пластиной, только имитация нажатия, как в iPhone 7-8.
Сам тачпад стеклянный и не протирается даже спустя продолжительное время.
А ещё он физически очень большой. Не испытываешь нехватку места при перетаскивании.

Как мне показалось, он хорошо понимает, что ты от него хочешь. На Windows постоянно натыкаюсь на ложные срабатывания жеста или наоборот на то, что не срабатывает жест с первого раза. На Мак пересел — все сразу нормально.
Я думаю дело даже не столько в самом таче, сколько в софте. И для меня тач на ноуте это наоборот самое важное.

Джобс еще более десяти лет назад расписал почему они не видят смысла в тачскринах на макбуках — A/B тестирование показало что людям не нравится — рука устает.


В результате лично у кого я видел ноутбук с тачскрином никогда им не пользовались, а кто пробовал — весь дисплей в отпечатках через 30 секунд, а значит надо протирать раз в пару минут. Выглядело конечно максимально убого и ужасно.

Два ноутбука-трансформера и оба с сенсорным экраном (и оба на amd ryzen). HP ENVY и Lenovo idepad Flex. Тачскрином пользуюсь не постоянно, но частенько. И очень этому рад.
Кейсы использования — очень удобно тыкать кнопки в машине. Очень удобно делать пометки в PDF/Снимках экрана/Word/Excel

У меня ноут с тачскрином. Пользовался 1 раз, когда проверял работает он или нет =)
Простите, но Джобс может расписывать что угодно — отсутствие USB и миниджека, например — но я своему опыту верю все же больше. Я не знаю, что нужно делать, чтоб рука устала от сенсорного экрана. Для меня основной инструмент ввода в ноутбуке — это все же клавиатура (а иначе можно просто взять планшет). Поэтому не представляю, что нужно делать, чтобы устала рука.
Про весь дисплей в отпечатках не подтверждаю. Каждые 30 секунд протирать его точно не приходилось. Но в силу использования ноутбука в основном в поездках за экраном в любом случае приходится следить лучше, чем за стационарным компом.
Если использовать ноутбук в качестве замены ПК, то сенсорный экран может быть и будет лишний. На работе стояло несколько моноблоков с сенсорным экраном. Большинство сотрудников даже забывало о том, что экран сенсорный. Сидя за столом тыкать в экран действительно неудобно.
У меня вин.планшет с клавой, нормально. Мышка где-то валялась и я её даже периодически беру с собой на дальняк, но чисто на всякий случай.
Если уж и буду брать ноут какой в будущем, то скорей всего с сенсорным экраном.

Это ж как с тачбаром у эплов — кому-то нравится, а кто-то плюется…
У меня тачскрин на lenovo extreme x1, пользуюсь им только когда надо пыль протереть с экрана :)
У меня 14 дюймовый ноутбук «трансформер» с тачскрином. Только вот в Windows толку от него не вижу. Хорошего софта, который под него был бы заточен, так и не нашел. Может кто то подскажет?
зато в макбуках есть куча планшетных приложений… парапарапам… без тачскрина!
Все в таче на ноуте хорошо (не все, я тоже не нашел удобный софт), но заляпанный экран — это за гранью добра и зла.
Насколько я понимаю экран с тачскрином ещё и матовым нельзя сделать, а значит всё время проблема с бликами.
Я по не внимательности купил монитор с каким то полудохлым антибликом. Приходится закрывать окна тёмными плотными шторами, чтобы не смотреть в своё отражение в тёмных сценах игр/фильмов.

Какие все в комментах негативные, аж неприятно. Подумаешь яблочники сделали то что никто не хотел делать — жирный реордер, теперь подняли шум что армы тащат, жесть.
Кхм. Интересно что в некоторых приложениях из их тестов разницы с М1 почти нет, чем это обусловлено?

Интел давно уже утомил всех своими выкидонами. Но и Аппле втирать очки умеет. М1 — процессор, где ОЗУ рядом с ядром. Физически близко. Больше ничего нового Аппле не сделала. Может ли Интел так сделать? Конечно может. Сделает когда-нибудь. АРМ процессоры уже сто лет как существуют.
Лучше бы программистов «к ногтю прижали», чтобы код писали компактный и производительный. А то сейчас парадигма в мире какающих радугой единорогов — «железо всё стерпит». Вот и пишут программы по 1Гб размером, для лопания пузырчатой пленки на экране.
Я вчера выпал в осадок когда лаунчер от эпиков скачал себе 420МБ обновлений. Лаунчер, чья задача игры запускать и библиотеку показывать.
Я больше десяти лет не играл, приятель говорит, современная игра требует 30-50 Гб места.
Что-то я понимаю, что опять не буду(
Вы там что, в гигабайты играете? Какая разница, сколько она занимает места?

Я вот думал игры оценивают по другим характеристикам. Хотя бы самое примитивное — нравится или не нравится.
Какая разница, сколько она занимает места?

Разница есть, когда этого места начинает не хватать, и на загрузку игры и обнов тратится по 4 часа.

И когда случается cash-trashing из соседней темы про своп.

Интел так не сделает. Они за АМД даже угнаться не могут, а за Эпплом теперь и подавно. Надо же понимать, что М1 это первый и самый слабый проц в линейке. Его на эйры ставят. Сравнили самый дешёвый проц с крутым — ахахах :)
К тому моменту когда Интел выпустит что-то не убогое (а за последние годы от неё ничего не убогого не было), у Эппла будет пачка крутых процессоров уже. Вон М1Х обещают скоро, а там вроде как аж в 2 раза больше быстрых ядер.

Сравнили самый дешёвый проц с крутым — ахахах :)
дело даже не в цене. «Сравнили ноут с пассивным охлаждением с ноутом с активным охлаждением в задачах, которые целенаправленно оптимизировались под процы intel»
Надо же понимать, что М1 это первый и самый слабый проц в линейке. Его на эйры ставят. Сравнили самый дешёвый проц с крутым — ахахах :)
а в каком месте проц из мобильного 11 поколения i7 интела «крутой»?
Как бы со времён 7700k интел уже признали, что 4/8 — это не крутые процы, доведя количество ядер в декстопов до 8-10 у топов.
Так что это не «самый крутой проц», а максимальный, который они смогли до сих пор сделать на 10нм техпроцессе. А крутыми у них будут 8 ядерники, которые по некоторым сведениям готовятся к выпуску в первой половине этого года. Вот там вполне вероятно будет неплохие процы… если получатся.
М1 это первый и самый слабый проц в линейке.
В достаточно дорогой линейке оборудования.

Нет, тут весь вопрос исключительно в методике, как интел решил доказать свои преимущества — но ничего нового в сфере своих доказательств не представили. Они так уже несколько лет доказывают превосходство над АМД.
а в каком месте проц из мобильного 11 поколения i7 интела «крутой»?

1185G7 это процессор с самой совершенной микроархитектурой Интел, созданный на самой совершенной технологии Интел.

А крутыми у них будут 8 ядерники

На более старом ядре (клон ICL) и старом техпроцессе :)
1185G7 это процессор с самой совершенной микроархитектурой Интел, созданный на самой совершенной технологии Интел.
Core i7-10750H передаёт привет. Ну тот, который 6/12 и процентов на 40 в многопотоке шустрее. Потребление, правда… лебединая песня.
На более старом ядре (клон ICL) и старом техпроцессе :)

Нет, это уже вышло. Именно 8 ядер на 10 нм обещают в мобильном секторе, про что я в теме и говорю, что вот это было бы прекрасным ответом на M1, а не подобные тесты. Но вот анонса в январе так и не произошло…
в многопотоке шустрее

Ну ещё бы, там ведь ядер больше =)

Нет, это уже вышло.

Нет, i9-11900K ещё не вышел.

было бы прекрасным ответом на M1

Tiger Lake-H имеет TDP 45W
Это вообще другая ниша.
Ну ещё бы, там ведь ядер больше =)
Так вот и получается, что проц не «топовый» у интелов, а средненький, но они лучше не смогли. Надеемся, что смогут.
Нет, i9-11900K ещё не вышел.
Ок, анонсирован
Tiger Lake-H имеет TDP 45W
Ок, 10710U в многопотоке так же процентов 10 даст больше.
Вопрос не в тдп и U/H, а в том, что «топовых» чипов у интела на 10 нм — нет.
При том, что сами процы на 10 нм неплохие, да, с учетом на ядро. Но 4/8 максимум и это не топ. Это топтоптоп какой-то.
Ждём 8 ядер (хотя б без потоков даже). Да хотя бы даже 6/12…
На самом деле удельная производительность на ядро у Zen 3, Intel Tiger Lake (Willow Cove) и Apple M1 примерно на одном уровне, если взять за основу результаты Cinebench R23.

Самым большим недостатком современных Tiger Lake на данный момент является отсутствие версий с 8 ядрами (Tiger Lake H — 45W). Ее обещают представить только летом. Также летом ожидаются и Adler Lake.

Что касается М1, то я не строю больших иллюзий касаемо условного М1Х. Одноядерная производительность останется примерно на том же уровне, многоядерная станет ощутимо выше. В некоторых приложениях это будет заметно, в некоторых — не очень.

Частоты останутся примерно на том же уровне. Все же М1 — это изначально мобильный чип, который не проектировался для работы на высоких частотах. Да, мы можем увидеть условные 3.5-3.6 ГГц в М1Х, но не больше. Чем сложнее чип — тем ниже максимальная рабочая частота.

В условном М2, вероятно, будут двигаться в сторону повышения частот. Apple придется упрощать логику и заниматься все той же оптимизацией конвейера. Да, 15-20% прироста мы получим, но вряд ли больше.

С Zen 3 тоже все понятно: увеличиваем частоты, оптимизируем конвейер. Zen 3+ предложит порядка 5-10% прироста.

В общем, все как обычно.
С Zen 3 тоже все понятно: увеличиваем частоты, оптимизируем конвейер. Zen 3+ предложит порядка 5-10% прироста.
У них на zen4 планы по ddr5 и pcie5, вроде новое поколение видюх в apu возможно завезут
там у них узкое место — отдельный чип ввода-вывода, который они особо не трогают и по старым техпроцессам до сих пор выпускают — под ддр5 явно переделают, может что улучшат. так-то в ноутных апушках они всё на едином чипе делают и там получается за счёт этого получают производительность всего чуть меньше, чем на декстопных, у которых кэшами приходится решать вопрос.
чо-то мракетологи у них зря деньги получают
Zen 555: AM5+DDR5+PCIe5!

а если серьёзно, то PCIe4 ещё нету нигде толком, поэтому на из пятёрок остаются только номер сокета и поколение памяти
а если серьёзно, то PCIe4 ещё нету нигде толком

Вроде же zen3 поддерживает? И нвидиа 30xx серии тоже. Даже материнки видел с pcie4. Или там поддержка чисто маркетинговая?

нет, поддержка в них нормальная, и ssd с четвёркой тоже есть
но лично мне кажется сомнительным выход PCIe5 в потребительском сегменте вместе с zen4 и AM5
Смысл 4 версии есть только для NVME, видеокарты прекрасно работают через 4 линии 3 версии.
Видеокарты-то работают, но пока у них оперативки хватает, если надо залезать в обычную, то… (разницу было видно на x8 амдшках с малым количеством памяти, которые на 3.0 работали хуже, чем на 4.0)
Плюс Smart Access Memory, как понимаю, тоже может зависеть.
Хотя 5.0 действительно пока нужно только чтоб уменьшать количество линий на один девайс, а значит увеличивать количество подключений просто, возможное по новому протоколу.
с, а значит увеличивать количество подключений просто

Или уменьшить число линий в пользовательских процессорах. Их всё время в притык делают, до времён NVME было 16 процессорных и парочка от чипсета, после это 20 + парочка от чипсета.

Ведь эта новая технология от нвидии RTX IO, когда ресурсы грузятся в видяху с SSD в обход процессора — она pci4 требует. Так что смысл есть.

Она требует объективно, типа с меньшими скоростями смысла нет, или просто где-то маркетинговое ограничение?
Просто я не вижу разницы в загрузке напрямую или через оперативную память в плане скорости интерфейса.

Не знаю деталей. Может какие-то технические ограничения не дают напрямую связать видюху и ссд на pcie3. Вряд ли это ограничение по скорости.

Она требует объективно, типа с меньшими скоростями смысла нет, или просто где-то маркетинговое ограничение?
Это может быть ограничение спецификации (должно быть реализовано в процессоре, например), и того, что на старых платах невозможно гарантировать качество работы.
С учетом, что АМД на старых платах запретила в прошивках биосов матплат активировать PCIE-4 с проца до видика и до слота m2 отпроцессорного, но в принципе у людей вроде как работали на бетах биосов, то тут возможна смешанность ограничений.
Да не, я не про саму работу 4 версии, а про работу RTX IO только на 4 версии.
Начнём с того, что по сути это DirectStorage API в DirectX 12, и вообще MS реализовывали это для Xbox Series X.
Чтоб декомпрессия данных со сверхскоростных SSD не грузила CPU Sony и Microsoft добавили в своих приставках специальные «чипы-декомпрессоры». Нвидия же по сути вместо чипов предложила использовать свои видеокарты громко распиарив «свою» технологию, а амд скромно сказали, что AMD Big Navi получили Microsoft Direct Storage API.
Я не могу найти, завязано это на спеку 4.0 со стороны именно PCIE (может там что реализовывать надо в процах для правильной поддержки) или может просто на 3.0 нет смысла (так-то нвидия говорит про 14 ГБ/сек).
Я ещё добавлю, что с увеличением частот увеличиваются задержки. И если в 3ГГц умещается 500 регистров, то в 5ГГц уже с трудом 200 регистров при том же дизайне. И вот вроде бы преимущество 3ГГц ядра с жирным реордером перестаёт быть преимуществом, ибо чтоб поддерживать ту же архитектуру нужно вводить дохера вспомогательной логики и увеличивать общие задержки. В итоге получится фуфыкс2, ахаха)
Ну это чисто беглый взгляд, это всё сложно, уву
а за последние годы от неё ничего не убогого не было
— потому что она была монополистом в отрасли, не? Ей тупо было пофиг на это всё ибо деньги приносит и зачем делать лучше? Забыл про эти шуточки — «Невероятный рост производительности на 10% каждый год»? (это и к видяхам относилось, когда нвидиа была во всех областях рынка успешней амд)
Как сказал один чувак — «они сдавали позиции амд в далёком прошлом, а потом переосмыслили проектирование процов и выпустили архитектуру 'Core' которая доминировала на рынке более 10 лет. Сейчас у неё вполне себе хватает денег чтоб создать подобный скачок снова.»
Мне кажется, что в Интеле не дураки работают. Ничего «такого особенного» в смысле процессора Аппле не сделала. А вот в смысле софта, думаю да. Поэтому и кажется, что М1 всех рвёт.
Если под интел софт нормально написать, то он тоже будет вполне себе.
напомню что большую часть софта адаптировали под intel десятилетиями, а под M1 месяцами. Да даже банально тот факт что rosetta2 обеспечивает производительность транслированного кода в 50-80% от нативной версии, уже прорывной результат.
Да не особо софт оптимизировали. Я, например, видел код офиса 2000. Там куски очень большие с комментариями «никто не знает как это работает. не трогайте». Эти куски из 95-го офиса еще кочевали из версии в версию. Как вы думаете за 5 лет процессоры изменились? Я думаю, что да. А код нет. Я уверен, что такое сплошь и рядом. И не только у майкрософта, но и у всех остальных. Все заметали мусор под ковёр… и продолжают этот делать.
так если это «и не только у майкрософта, но и у всех остальных», то чем по вашему софт apple такой волшебный? Как будто под технику apple только IT-гении разрабатывают
Он ничем не «волшебный». Просто аппле и железо тоже делает. В отличие от майкрософта, которому надо обеспечить совместимость с миллионом разных железок, сделанных в той или иной степени гениальными или криворукими производителями. Это не просто. Апплу проще. Они железки собрал, софт для них написал. Можно оптимизацией заниматься до полного удовлетворения…

"А то сейчас парадигма в мире какающих радугой единорогов — «железо всё стерпит»"
Так — то это парадигма современных программистов.


У меня до сих пор на старом винте лежит кооперативный 3D шутер весом порядка 5 мегабайт.


Надо будет его перетащить на новый винт. И если запустится под 10-кой буду троллить современных игроделов…

Вы что, правда думаете, что в современных играх весом 50-70Гб основное место занимает код? Серьёзно? Ну тогда еще графикой по тролить современных игроделов не забудьте...

Ну справедливости ради, 50-70 Гб давно не предел, встречаются и вдвое больше размером игры. И многие весят столько потому что разработчики не стали сжимать или оптимизировать ассеты, а иногда и просто неиспользуемые куски гигабайтами отсылают на деплой.
Да и код, отдельная тема, сколько было случаев что exe ужимался с 150 до 3 Мб или терял в районе 600 Мб просто из-за удаления какой-нибудь Денувы.

А там на удивление нормальная, зато там нет пуленепробиваемых лисиье и доскок, как в некоторых современных играх.

Расскажите що это у вас там за «кооперативный 3D-шутер» на 5 мегабайт?

Когда 3Д игры столько весили, никакой кооперативной игры в них не было…
Больше ничего нового Аппле не сделала.

Ну нет. M1 — первый массовый процессор 5нм. Тут, правда, не эппл, а TMSC постарались, и интел тут позади ощутимо.

Тут, правда, не эппл, а TMSC постарались

Apple является главным клиентом TSMC. Без яблока у TSMC не было бы столько денег (недавние 25 миллиардов инвестиций в 5nm) на новые фабрики для будущих ARM-чипов (80% для Apple). Там максимальный симбиоз.

Разработали эппл а TSMC его только выпустили. Или АМД тоже не делали своих процессоров?

Самое главное и прекрасное, что сделал эппл — начал популяризацию ARM, который теперь перестает быть узкоспециализированной архитектурой, под которую далеко не всегда всё можно было легко собрать.

Яблоко популяризировало ARM еще в 2013, когда выпустило первый 64-битный ARM-чип в iPhone 5S и с того времени ни Samsung со своими Exynos, ни Qualcomm со Snapdragon не могут и близко наблизиться к производительности яблочных чипов, из-за чего даже мой iPhone 6S на iOS 13 почти не лагает. А где смартфоны на Андроиде тех годов — вопрос риторический.

Какой-нибудь Samsung Galaxy S6 и сейчас вполне бодр.

iPhone 5S вышел в сентябре 2013, а Galaxy S6 в апреле 2015. Полтора года разницы. При этом на Galaxy самый новый Android — 2016 года релиза, а на iPhone iOS 12 2019 года релиза (и она до сих пор получает минорные апдейты, последний в январе этого года).

Galaxy S6

На мой бывший SII небось до сих пор можно сыскать кастомы, а вышел он в 2011.
На официальную поддержку покласть, всё равно вендоры кривоту делают ))

В сообщении было указано "мой iPhone 6S", потому и Самсунг был из этой же эпохи.
Официальные минорные апдейты всё ещё есть (внезапно), последний — 7 января 21 года. Неофициально — есть 10 Андроид.

который теперь перестает быть узкоспециализированной архитектурой

С чего бы? Они выпустили ещё одно закрытое со всех сторон устройство, теперь в формфакторе ноутбука и мини-ПК. Я считаю это деградацией.

Заметили да, как Интел оказался в роли догоняющего? А Эппл, который раньше ассоциировался только со впариванием маркетингового булщита, неожиданно оказался технологическим лидером?
Формулировки Интела — «ну, у нас вот тут тоже вроде неплохо, вот тут вроде даже чуть мощнее, вот тут примерно равно, вот тут хуже в целом, но игр нет!» — каким боком тачскрин и отсутствие нативных игр является заслугой процессора? :)
У меня 1 ноут на линуксе, 1 десктопный ПК на 10 винде и 1 макбук эйр. То есть я не долбанутый фанат эппла. Но М1 действительно потрясающе крутой. А «отзывчивость системы» там намного лучше и винды и линукса, так что Интел не надо плз балаболить

Главное — что яббл смогли поставить Интел в позицию, когда последним приходится оправдываться и, ну, не подделывать, но делать не совсем честные сравнения. Честно — мне как потребителю — лучше, чтобы Интел собрались и выпустили что-то путное, чтобы Яббл тоже не расслабляли будем, но если смотреть идеологически — я устал от засилья Интела. Может эта… им реально пора на покой? Это нормально, когда лидеры прошлого уступают место новым Кумирам и уходят в туман…

Готовы к процессорам среднего звена по $1000?

Мне вообще пофиг, я процессоры уже лет 5 не покупаю.
Покупаю готовое устройство — будь то компьютер (брендовый), либо ноут, либо телефон (планшет)

Вы просто отвыкли от такого уровня цен. Более-менее вменяемая рабочая станция в начале 90-х вполне тянула на пять-семь тысяч баксов (и это без поправки на инфляцию). А сейчас это среднее звено производительней той рабстанции, пожалуй, порядков на N или даже M (за исключением того, что должно быть исключено — то есть довольно толстого и кривого современного софта).
А Эппл, который раньше ассоциировался только со впариванием маркетингового булщита

Ну это наверное только на постсоветском пространстве, забугром всегда при реверс-инжиринге удивлялись мастерству яблочных инженеров. Технологически ведь все годы конкуренты только их и догоняют в плане начинки.


Даже линуксовые мейнтейнеры ядра линукса сидят на макбуках из-за их инженерных особенностей и пишут об этом статьи на LWN:


Apple is the only remaining vendor to build a multiplexer into hybrid graphics laptops, which have both high-end and low-power GPUs. The multiplexer allows the panel to be switched between the GPUs and the unused GPU to be powered off. All other manufacturers use a "muxless" solution, whereby the discrete GPU is headless and copies rendered data over PCIe into the integrated GPU's framebuffer. "Muxed" solutions, such as the one used by Apple, offer superior power saving and latency, but are more difficult to implement.

Я не фанат эпла, но до этого у меня был рабочий mac pro 2018 на i9 и он грелся просто ужасно и сейчас получил новый на m1 то разница чувствуется, m1 так сильно не греется

Если в курсе, подскажите, как там Homebrew работает в нативном режиме и портировали ли GCC с Fortran и OpenMP?

Спасибо, я еще не видел! А нет ли где разъяснений, что делать с Homebrew пакетами, зависящими от старого GCC 8 (в частности, пакеты Anakonda зависят именно от этой версии и часть ПО другим GCC просто не собирается, приходится свои пакеты с OpenMP и GCC 8 Fortran мантейнить)?

Оффтопик, конечно, но почему под макосью так редко пользуются pkgsrc? Все homebrew да macports.

Наверное, потому, что удобно:) Множество пакетов доступно, система Homebrew основана на гит. Кстати, пакеты дебиан отлично на маке собираются, можно поддерживать единую кодовую базу для пакетов Homebrew и дебиан (если нужны собственные пакеты и там и там), одной командой код разворачивается на нужном количестве инстансов Amazon EC2 (Alibaba cloud почти полностью совместимы, за исключением странных нюансов с сортировками… ох уж эти китайцы с их иероглифами).

Странно что Intel не продемонстрировал многопроцессорную матплату, с кратным увеличением производительности)

Очень напоминает поведение Нокии времен выхода первого iPhone.

Надо ещё проверить, не был ли подключён аквариумный чиллер к процессору во время тестов, как однажды уже делал интел

Дайте и я сделаю умную морду лица и выскажу своё «экспертное» мнение.
Всем давно известно, что х86 — это про тяжёлые вычисления, а ARM — это про энергосбережение и более низкую цену. Есть задачи для которых, на данном этапе, одна архитектура рвёт вторую в клочья, но ещё больше задач для которых обе архитектуры одинаково хороши. Прогресс не стоит на месте. ARM становится более быстрым. И вот уже ARM способны потянуть то, что раньше без успокоительного можно было делать только на x86. Таким образом мы получаем всё увеличивающуюся долю пользователей, которых ARM удовлетворяет на все 100%. Здесь убивается сразу 2 зайца — устройство на ARM дешевле и в силу пониженного энергопотребления более мобильное. Говоря простым русским языком — в силу естественных причин ARM вытесняет х86. Моё «экспертное» мнение склонно считать, что экспансия ARM продолжится, но не до полной и окончательной победы. Сервера, CAD, видеообработка и другие задачи, требовательные к вычислениям, ещё долго будут оставаться за x86. Такова тенденция развития отрасли в целом. Кто возглавит крестовый поход ARM на x86, дело третье. Это может быть как вполне реальный M1, так и гипотетический A+100500.
Apple применила грязненький маркетинговый ход (что в отрасли делается сплошь и рядом), и на него клюнет куча народа, НО для этой кучи народа на самом деле нет смысла использовать x86. Им нужны видосики с ютуба + пара-тройка других соцсетей и чтоб это можно было делать по пути в электричке. А если ещё и гламурный, раскрученный логотипчик на железке будет — это вообще шик.
А тем, кто выполняет тяжёлые расчёты — x86 в руки и розетку под боком.

Так м1 дороже х86 — это один из самых «жирных» чипов сейчас по количеству транзисторов

Достаточно сказать, что по количеству транзисторов сравнимый чип на x86 — это амдешный в новых топовых коробках и плойках, но он на 7нм (то есть размер чипа больше и потребление тоже)

Или два чемодана пауэрбанков, как в выпуске Ералаша про «умные часы». Надеюсь, в ARM всё же внедрят что-то типа AVX, чтобы не нужно было спину надрывать или сидеть в плену у розетки.

А в чем заключается грязненький ход Apple? В том, что в М1 память встроенна внутрь? Ну так уже давно она (память) распаяна на материнские и её обыватель не может заменить/увеличить.

Вы же надеюсь видели тесты, где М1 рвёт в клочья Интеловские топовые процы на вполне себе «вычислительных» задачах вроде перекодировки видео? Как вы вообще можете утверждать что видеообработка «останется за х86» если уже сегодня дешевый слабый М1 убивает дорогих конкурентов наповал? На ютюбе полно честных обзоров, где просто включают одну и ту же задачу на 2 ноутбуках, и на камеру снимают «честный» перформанс, безо всякой синтетической ерунды. М1, будучи самым дешевым и слабым процессором в линейке, в плане перформанса уже сейчас уделывает многие i7 и i9 по целому ряду задач. Рекомендую почитать почему — там от архитектуры с одинаковой длиной микрокоманд, до встроенных нейропроцессоров и т.п. Ждем М1Х, М2 и так далее — у них обещают минимум в 2 раза выше перформанс, а это уже будет просто за пределом мечтания Интела
на вполне себе «вычислительных» задачах вроде перекодировки видео?
на перекодировании видео на числодробилке или на кодировании встроенными сопроцессорами с задаными настройками?
у них обещают минимум в 2 раза выше перформанс

Благодаря числу ядер. А с ними у х86 тоже никаких проблем, по многопоточной производительности десктопные многоядерники рвут M1 как тузик грелку, что впрочем неудивительно при наличии 10-12 ядер, которые пусть даже на 20% отстают от M1, хотя тот же Ryzen 5000 серии немного его превосходит и в однопотоке.
хотя тот же Ryzen 5000 серии немного его превосходит и в однопотоке.
десктопные то да, но надо наверно дождаться мобильных, хотя по предварительным утечкам не превосходят они M1 в однопотоке
Не знаю как кого, а меня мобильные процы не интересуют.
Хз, 8 ядерники у амд в ноутах не так сильно проигрывают 8 ядерникам в декстопах, чтоб не быть интересным многим.
Но вот если вам есть чем 16/32 загрузить, то мобильный процессор 3950x вполне себе неплох )))
PS. извиняюсь, не удержался просто)
Не знаю как кого, а меня мобильные процы не интересуют.
а зачем тогда M1 интересуетесь?
Смотрю куда деградирует Apple. Она часто задаёт тренды, и в последние лет 5 это только плохие тренды. Мне такое не нравится.
Справедливости ради нужно заметить, что в М1 видео кодируется отдельным блоком. Если взять самый бюджетный ноутбук с дискретной видеокартой nVidia с NVENC, то там производительность будет в среднем в два-три раза выше.

Что касается набора инструкций ARM (вероятно, именно это вы имели ввиду), то он принципиально на производительность не влияет. В современных процессорах инструкции декодируются в микрооперации. В ARM декодер проще, в x86 сложнее, но и там, и там, это не является бутылочным горлышком. Они работают очень быстро.

M1 — это по сути мобильный чип, в котором увеличили количество ядер. У Apple получилось сделать процессор с очень широким конвейером (до 8 микроопераций за такт). В то же время этот чип вряд ли сможет работать на частотах выше 3.4-3.8 ГГц в силу своей сложности и физических ограничений.
Если не учитывать инструкции AVX, то процессоры использующие инструкции ARM и x86 работают по очень похожему принципу.

Везде инструкции декодируются в микрооперации, везде используется внеочередное исполнение команд, планировщики, предсказание переходов, переименование регистров и прочее.

Основное отличие — это более сложный декодер в x86 процессорах. Но и там это не является бутылочным горлышком, они сами по себе сравнительно простые, занимают крайне мало места и работают очень быстро в параллельном режиме.

Бутылочные горлышка начинаются дальше. В случае с современными процессорами — это зачастую логика переименования регистров. Она усложняется как минимум квадратично по отношению к ширине конвейера.
Если не учитывать инструкции AVX, то процессоры использующие инструкции ARM и x86 работают по очень похожему принципу.

Вы наверное хотели сказать AMX? Потому как AVX, AVX2 ничем не отличаются от NEON (в AArch64) и спокойно в него транслируются.
godbolt.org/z/MME59f
В цикле для ARM выполняются операции над двумя порциями по 128 бит, а у х86-64 над одной 256-бит порцией. По времени выполнения на M1 и TGL разницы так же быть не должно.

В AVX-512 добавили scatter-gatter и регистры масок. Но в SVE они есть. Код AVX-512 так же спокойно транслируется в SVE, а вот обратно уже нет.

Что касается AMX, то на A13/A14/M1 имеется нестандартный матричный акселератор с аналогичным названием.

Пора продавать акции Интел, все сильно хуже чем я подозревал. Очевидно они понимают что 12е поколение заведомо хуже конкурентов и бьются в истерике.

Забыли еще про одно мелкое техническое отличие упомянуть: macOS — это более менее нормальный юникс на уровне консоли (а софт — пересобирается), имеем юникс-тулчейн весь что надо. А на ноут на Intel поставить Linux можно конечно. Но далеко не на любой и надо либо ОЧЕНЬ тщательно выбирать производителя либо рисковать что то одно не заведется то другое.

Ага, каждый раз, когда у меня рабочие скрипты (писанные под Linux) падают из-за несовместимости GNU sed и BSD sed, я очень радуюсь "нормальному юниксу". :)
В W10 я в такой ситуации ставил Ubuntu из Windows Store и вообще горя не знал.


P.S. Не топлю ни за, ни за другое, все хороши (и ужасны одновременно). Но аргумент про Unix немного странный.

Может, лучше скрипты писать без гнутой ереси? Макось нормальным юниксом не особенно считаю, это больше про разные *BSD, но, кхм, жаловаться на отсутствие нестандартных расширений как-то немного странно.

Де-факто стандартом является скорее GNU, чем POSIX.
Я не настоящий сварщик и не готов аргументированно рассуждать на тему того, хорошо это или плохо, но имеем что имеем.


P.S. Disclaimer: под фразой "де-факто стандартом является" я имел ситуацию, которую вижу сам в IT-среде вокруг себя; возможно, где-то есть знатоки, который пишут по стандартам и у них всё хорошо, а я не прав и не понимаю, о чём пишу. :)

На маке ставите bash или любой другой интерпретатор из пакетов Homebrew — совместимость 100%. В чем проблема-то?

дело не в этом, дело в том, что на Mac OS не GNU окружение.
Как bash из homebrew вдруг сделает sed GNU'тым? Ответ — никак.
Я уже напарывался на разницу в флагах sed, tar, nc — может что-то еще.

Так я и говорю, ставите гнутые версии вместо системных — и разницы не будет.

zanuda mode on.


Вы про баш говорили, а это только часть окружения.


Так я и говорю, ставите гнутые версии вместо системных — и разницы не будет.

в такой формулировке согласен

Обычно несовместимости баша людям больше всего жить мешают. А уж когда вы знаете разницу в ключиках юниксовых утилит на разных платформах, то вы знаете, как это решается :)

был один мудрец, который скрипт под последний баш написал (который 5-й вроде?). Я потом заманался — он нигде не работает, кроме как там, где стоит последняя версия баша ))) Скрипты надо писать так, чтобы они на голом /bin/sh работали )))

Я тоже так думал когда-то… но, знаете, прямое указание интерпретатора в скрипте и проверка его версии решают проблему гораздо лучше. Бэкпортировать требуемый баш — дело минут, а вот решать непонятную проблему — как повезет.


За последние годы доводилось неоднократно на университетских кластерах свои скрипты запускать… так вот на древнем центосе (стандартная ось для таких кластеров) баш ни фига не совместим с таковым в дебиане от того же года, который я вполне себе помню. Потому что в центосе времен прошлой пятилетки баш стоит времен позапрошлой :)

Совсем недавно писал небольшой скрипт, строк 160 вместе с многострочными константами и комментариями. На баше.
Потому что ассоциативные массивы на sh все еще не работают, а инструмент нужен с минимальными зависимостями.

Да нет никакой проблемы, так же как нет проблемы на W10 в три клика получить полноценное UNIX-окружение. ¯\_(ツ)_/¯

UFO landed and left these words here

Wayland, наверное, имеется ввиду.

UFO landed and left these words here

С осени 2020 дискорд работает и в лисе, включая видео и звук.
discord.com ⇒ |Open Discord in browser|

UFO landed and left these words here

Хмммм… А если симулировать PTT через шорткат, наподобие того, как это происходит с XF86AudioMicMute?
Вам, конечно, ваш сценарий использования гораздо более ясен.

Конкуренция гигантов — это хорошо. Будут новые идеи, успешные реализации и снижаться цена. Главное чтобы они в процессе борьбы не вступили в картельный сговор

Что-то они ни bzip, ни gcc, ни llvm в качестве бенчмарков не использовали. А ведь это очень сложные вычислительные задачи на которых хорошо видно, кто быстрее "в целом", а не за счёт пачки удачных интринзиков.

Какие цели, такие и инструменты.
Лично мне бы хотелось увидеть от Intel детали о полноценных восьмиядерных Tiger Lake вместо рассказов что их нынешний процессор лучше чем М1.

Да, действительно, во многих задачах текущий Core i7 1185G7 показывает сопоставимую с М1 производительность, но все же от Intel хотелось бы увидеть что-то большее чем подобное сравнение.

Что касается самих процессоров М1, то они получились очень даже неплохими, по удельной производительности на ядро они примерно соответствуют ядрам Zen 3 и Tiger Lake.

Утверждение Apple о том что это самое быстро процессорное ядро не соответствуют действительности, а сравнения со старинными Intel Core 8 серии — это ещё большая манипуляция чем текущая презентация Intel.

Что касается перспектив M1, то здесь я бы не был так оптимистичен. Изначально этот чип проектировался для мобильных устройств с невысокой тактовой частотой и энергопотреблением.

Основной фокус был сделан на расширение конвейера. Сейчас ядро M1 обрабатывает до 8 микроопераций за такт. Помимо этого у Apple реализовали большой 128 Кб кеш первого уровня с низкой задержкой в 3 такта. Это все круто, но тут есть огромный минус: это все требует усложнения логики. При этом зависимость там квадратичная. Это в свою очередь вносит физические ограничения на максимальную тактовую частоту.

В итоге ядро М1 может физически не работать на частотах выше 3.5-4 ГГц. Да, в условном М2 могут поднять частоту и IPC, но прирост будет на уровне 10-20%.

Что касается Zen 3, например, то это ядро изначально проектировалось для работы на высоких тактовых частотах. Да, он обрабатывает не 8 микроопераций, а 6 (в среднем), но при этом может работать на частоте в 5 ГГц.

Что касается сравнения архитектур ARM и x86, то здесь большой разницы нет (если оставить за скобками всякие AVX). Декодер в x86 уже давно не является узким местом. Он работает очень эффективно.

В общем, как-то так.
Утверждение Apple о том что это самое быстро процессорное ядро не соответствуют действительности
а они не это утверждают. эппл упирает, что м1 лучшее соотношение perf/watt

вот ещё сомнения по поводу роста а14/м1

semianalysis.com/apple-a14-die-annotation-and-analysis-terrifying-implications-for-the-industry

В своей презентации они заявили «Faster than 98% of PC laptops» без каких либо звездочек и на отдельном слайде.
и где в Faster than 98% of PC laptops про ядро?
В своей презентации они заявили «Faster than 98% of PC laptops» без каких либо звездочек и на отдельном слайде.
как вы думаете насколько мощные «98% of PC laptops» если средняя цена «pc laptop» в диапазоне $300-500?
Утверждение Apple о том что это самое быстро процессорное ядро не соответствуют действительности, а сравнения со старинными Intel Core 8 серии — это ещё большая манипуляция чем текущая презентация Intel.
на момент презентации ryzen 5000 не вышли, и в некоторых тестах M1 действительно лидировал в однопотоке. Ну и сравнивали они не с «intel core 8-й серии» всё-таки, а с предыдущей моделью их же устройств. Имо любой производитель имеет полное моральное право так делать.
на момент презентации ryzen 5000 не вышли

Вышли на 5 дней раньше :)
Думаю из-за этого слайды переделывать не стали, но голосом добавили оговорку про "low-power".

Ryzen 5000 были представлены более чем на месяц раньше — 8 октября, а фактические продажи начались за 5 дней до презентации.

Intel Tiger Lake были анонсированы более чем за два месяца до презентации (2 сентября), а фактически в продаже появились в октябре.

И да, сравнивали они с MacBook Air с 1.2 ГГц Core i7 (1060NG7) и получили up to 3.5x faster CPU performance. Честное сравнение, ничего не скажешь.

Это называется манипуляция фактами. Собственно, этим же занимается и Intel, но куда более осторожно.
И да, сравнивали они с MacBook Air с 1.2 ГГц Core i7 (1060NG7) и получили up to 3.5x faster CPU performance. Честное сравнение, ничего не скажешь.

Они сравнивали ровно с предыдущим поколением моделей, которые заменили на M1. И эти сравнения прозрачные и понятные покупателям макбуков — за ту же цену в 2-3 раза быстрее, чем в прошлом году.

Они могли сравнить с MacBook Pro 13 или Mac Mini, но почему-то взяли MacBook Air, который гораздо медленнее. В общем, здесь все и так понятно.
В презентации macbook air они сравнили MBA (M1) с MBA (intel), и потом в презентации macbook pro они сравнили MBP (m1) с MBP (intel). В чем проблема?
И да, сравнивали они с MacBook Air с 1.2 ГГц Core i7 (1060NG7) и получили up to 3.5x faster CPU performance. Честное сравнение, ничего не скажешь.
Во-первых, в некоторых задачах получалась разница аж больше четырех раз. Во-вторых, сравнили старую модель за $1000 с новой моделью за $1000 и получили в 3.5 раза выше перф, в чем проблема? Apple бы сделали абсолютно то же самое будь их новое поколение на обновленных супермощных intel (жаль они не вышли), на ryzen, qualcomm, да хоть на эльбрусе.
Это называется манипуляция фактами. Собственно, этим же занимается и Intel, но куда более осторожно.
Пример: судя по слайдам intel, 1185G7 обошел M1 в WebXPRT 3 аж на 32%. Круто, да? Но чет не верится. Идем на сайт бенчмарка WebXPRT 3, ищем там в топе M1 и 1185G7 (подсказка: 286 против 255 соответственно, M1 на ~10% быстрее), делаем выводы. Это даже не манипуляция фактами, это откровенная ложь в пресс-релизе.
Референсный ноутбук от Intel в WebXPRT 3 набирает 271 балл (https://www.computerbase.de/2021-02/amd-ryzen-5000-mobile-test/2/#diagramm-webxprt-3-v293). Это примерно столько же, сколько и у M1.

Если верить другим тестам, то ноутбук с 1185G7 (MSI Prestige 14, в данном случае) по производительности сопоставим с MacBook Pro на чипе M1: www.pcworld.com/article/3600897/tested-how-apples-m1-chip-performs-against-intel-11th-gen-and-amd-ryzen-4000.html?page=2

Если взять вполне себе реальные задачи, то в PugetBench Photoshop немного быстрее Intel (706 против 659 у М1), в Premiere Pro ситуация обратная (300 против 359). Сравнение вполне себе корректное, поскольку сравниваются нативные версии.

Примечательно, что весьма старый по нынешним меркам Asus Zephyrus G14 с 4800HS + 2060 в Premiere в два раза быстрее чем M1. Вероятно, это связано с использованием видеокарты.

Примечательно, что в игре Rise of the Tomb Raider чип Intel показывает лучшую производительность.

В общем, процессоры обладают схожей производительностью. Что презентация Apple, что нынешняя презентация Intel — это чистой воды манипуляция. Новые Ryzen 5000 серии все равно быстрее.
Референсный ноутбук от Intel в WebXPRT 3 набирает 271 балл (https://www.computerbase.de/2021-02/amd-ryzen-5000-mobile-test/2/#diagramm-webxprt-3-v293). Это примерно столько же, сколько и у M1.

И этот скор включён в рассчёт среднего. И он всё ещё меньше, чем минимальный полученный для M1.


Если взять вполне себе реальные задачи, то в PugetBench Photoshop немного быстрее Intel (706 против 659 у М1), в Premiere Pro ситуация обратная (300 против 359). Сравнение вполне себе корректное, поскольку сравниваются нативные версии.

Если мы пройдём по ссылке, то обнаружим там ровно тот же балл у M1 за photoshop. А если приглядеться к дате публикации, то поймём, что статья была опубликована чуть раньше, чем вышла первая нативная бета фотошопа. Упс.


Premiere Pro — тоже через Rosetta. И это при том, что PP даже в нативной версии сейчас работает намного медленнее, чем DaVinci и Final Cut.


Rise of the Tomb Raider они вообще сами не тестировали, а взяли где-то в интернетах. Я, например, видел посты про 40 fps на 1920x1200 Very High. К слову, это всё тоже Rosetta.


В общем, как всегда сравнили тёплое с мягким.

Примечательно, что разница в производительности между нативной версией Photoshop и запущенной через Rosetta 2 совсем небольшая (от -5 до 25%): petapixel.com/2020/12/08/benchmarking-performance-lightroom-on-m1-vs-rosetta-2-vs-intel

Это существенно картину не меняет. Забавно, что в трех тестах из четырех MacBook Pro предыдущего поколения с четырехядерным 2.3ГГц Core i7 справилась быстрее чем M1, а в оставшимся тесте они были на одном уровне. В 3.5х быстрее, ага.

Что касается Rise of the Tomb Raider, то результаты очень близки к тем, которые опубликовала Intel (32-35 FPS). Интересный факт: в презентации Intel M1 показал себя немного лучше, а в тесте PCWorld наоборот.

В то же время рассматривать М1 как ноутбук для игр или профессиональной работы с видео, графикой, ML я бы не стал. Все же она предполагает наличие рабочего места, где вопрос с потребляемой мощностью и автономностью в принципе не стоит.

Да, приятно, когда ноутбук работает тихо и не греется, но все становится куда проще, если стоит выбор между заработать условные 250$ и 500$ в день просто потому что модель быстрее обучилась, проект быстрее отрендерился, или видео быстрее экспортировалось.

Ещё более однозначно ситуация обстоит, если есть перспектива вообще ничего не заработать, если возник какой-то баг с софтом и пришлось потрать день на пляски с бубнами.

Ноутбуки с тем же 5900H и условной GTX 3070 гораздо быстрее, там все предсказуемо с софтом, а также и не нужно ждать пока кто-то что-то оптимизирует.
Примечательно, что разница в производительности между нативной версией Photoshop и запущенной через Rosetta 2 совсем небольшая (от -5 до 25%): petapixel.com/2020/12/08/benchmarking-performance-lightroom-on-m1-vs-rosetta-2-vs-intel
Это существенно картину не меняет. Забавно, что в трех тестах из четырех MacBook Pro предыдущего поколения с четырехядерным 2.3ГГц Core i7 справилась быстрее чем M1, а в оставшимся тесте они были на одном уровне.

Это говорит о том, что Adobe пока не оптимизировала многие алгоритмы под ARM, раз через трансляцию такая небольшая разница. С другой стороны, это понятно — у них было 20 лет на затачивание под x86, и всего несколько месяцев на портирование на M1. Под iPad они так и не смогли выпустить версию, спустя 2 года после обещаний.


В 3.5х быстрее, ага.

Да, в 3.5 раза быстрее прошлого эйра. Или вы что-то другое хотели сказать? Наверное, приписать Apple или оппонентам то, что они не утверждали никогда?


В то же время рассматривать М1 как ноутбук для игр или профессиональной работы с видео, графикой, ML я бы не стал. Все же она предполагает наличие рабочего места, где вопрос с потребляемой мощностью и автономностью в принципе не стоит.

И правильно. Этот процессор (и GPU) для вполне определённой ниши, которая очерчивается устройствами, в которые его поставили, и тут ему сложно найти конкурента.
А для других устройств будут другие процессоры.


Да, приятно, когда ноутбук работает тихо и не греется, но все становится куда проще, если стоит выбор между заработать условные 250$ и 500$ в день просто потому что модель быстрее обучилась, проект быстрее отрендерился, или видео быстрее экспортировалось.

Или ноутбук в дороге не сядет за час, а проработает 6. И коленки не прожжет. И не будет весь рабочий день гудеть над ухом.
Вариантов много можно придумать. Вот только разницы с M1 в 2 раза по CPU вы не найдёте в ноутбуках.


Ещё более однозначно ситуация обстоит, если есть перспектива вообще ничего не заработать, если возник какой-то баг с софтом и пришлось потрать день на пляски с бубнами.

От этого вы нигде не застрахованы, ARM/x86 тут вообще не в кассу.


Ноутбуки с тем же 5900H и условной GTX 3070 гораздо быстрее, там все предсказуемо с софтом, а также и не нужно ждать пока кто-то что-то оптимизирует.

Во-первых, он всё ещё не быстрее в однопотоке.
Во-вторых, вы продолжаете сравнивать разные ниши устройств, с кардинально разными предназначением, размерами, потреблением и ценой. С тем же успехом можно продолжать кивать на десктопные 16-ядерники.

Adobe активно использует набор инструкций AVX2 в своих продуктах. Эти инструкции обрабатывают в два раза больше данных (256 бит) чем аналогичные NEON в ARM (128 бит). Отсюда и задержки с выходом нативных версий, и сравнимая производительность по сравнению с Rosetta.

И да, Ryzen 5900H показывает идентичную производительность в однопотоке.

Что касается стоимости, то MacBook Pro 13" в конфигурации с 16Гб/1ТБ стоит на $100 дороже чем Asus G713 с Ryzen 5900H и GeForce GTX 3070 ($1899 против $1799 у Asus):
store.asus.com/us/item/202101AM090000007
www.apple.com/shop/buy-mac/macbook-pro/13-inch-space-gray-apple-m1-chip-with-8-core-cpu-and-8-core-gpu-512gb
Отсюда и задержки с выходом нативных версий, и сравнимая производительность по сравнению с Rosetta.

Задержки у них из-за плохой культуры кода. Можете посмотреть, с каким лагом они выпускали версии под новые платформы каждый раз.


И да, Ryzen 5900H показывает идентичную производительность в однопотоке.

Не показывает нигде, кроме Cinebench. Я решил проверить ещё раз, и обнаружил, что и Blender и 7-zip на M1 тоже тестировали через Rosetta.
Поэтому мобильный Zen 3 сравним по производительности на поток с M1 в режиме трансляции x86.


Что касается стоимости, то MacBook Pro 13" в конфигурации с 16Гб/1ТБ стоит на $100 дороже чем Asus G713 с Ryzen 5900H и GeForce GTX 3070 ($1899 против $1799 у Asus)

А десктоп можно ещё дешевле собрать. Только от него примерно столько же толку будет в поездке.

Задержки с выпуском связаны с тем, что на М1 не так много устройств на данный момент.

В 7-Zip 5900HX быстрее на 4% (5633 MIPS против 5441 MIPS у M1). В Node.js V8 Web Tooling Benchmark результаты тоже равны (около 15 запусков в секунду, с Rosetta 2 M1 выдает около 12.3).

Что касается времени автономной работы, то G713 работает больше 13 часов в режиме веб серфинга, чуть меньше 9.5 часов при просмотре видео и 1 час 20 минут во время игры: laptopmedia.com/review/asus-rog-strix-g17-g713-review-monstrous-hardware-and-a-300hz-display
Референсный ноутбук от Intel в WebXPRT 3 набирает 271 балл (https://www.computerbase.de/2021-02/amd-ryzen-5000-mobile-test/2/#diagramm-webxprt-3-v293). Это примерно столько же, сколько и у M1
Это всё еще на 5% ниже, а не выше на заявленные 32%.
Что презентация Apple, что нынешняя презентация Intel — это чистой воды манипуляция
вы всерьез не видите разницы между утверждением «наш новый продукт лучше нашего предыдущего продукта в N раз», где этот N воспроизводим (да даже в банальном geekbench multicore), и утверждением «наш продукт лучше продукта конкурента на N%», где этот N невозможно воспроизвести? А если они использовали условный chrome через rosetta2, то это противоречит утверждению про «нативные версии приложений» в их же пресс-релизе.
Новые Ryzen 5000 серии все равно быстрее.
мобильные ryzen 5000 всё равно не дотянут до M1 в однопотоке. А в многопотоке и 4000-е побеждают.

А в geekbench набирает на 10%+ меньше. И это самый топовый и самый горячий из условно мобильной линейки процессоров на 45+ Вт.


Это не утверждение "geekbench рулит, cinebench — говно", а просто замечание, что полноценного тестирования пока ни у кого не было, поэтому рановато пока делать такие заявления.


Вообще все ваши сообщения про M1 выглядят как подгонка аргументов под выводы. В выборе приводимых тестов вас ведёт confirmation bias, сравнения постоянно делаете с разными соперниками по разным параметрам, энергопотребление вообще игнорируете как "неважное" лично вам, и обязательно упоминаете дискретные GPU, как будто интегрированной графики у конкурентов вообще не существует.
Даже из комментариев инженера Intel (заранее прошу прощения, если где-то в другом месте почерпнули выводы изложенные в топовом комментарии) вы вынесли только его мнение, что микроархитектура Apple уже на пределе, дальнейшее развитие невозможно, а Apple зря затеяла переход, и их ждёт провал.
Я вам по-секрету скажу, они и текущий M1 считали абсолютно невозможным пока он не вышел. И даже за A7 не видели никакого будущего, когда там появилось 6 декодеров, потому что тогда считали частоту 1ГГц предельной для такого широкого процессора.
Однако реальность вносит коррективы. IPC у Firestorm на 30-40% выше, чем у любого x86-ядра. Частоту нарастили до 3.2 ГГц, сохранив потребление в 2-4 раза ниже.


Apple ведь только начала процесс перехода на свои процессоры — со своих младших ноутбуков, ориентированных на автономность — а их уже сравнивают только с самым топом, про энергоэффективные/компактные/дешёвые модели вообще больше никто не заикается.

И это самый топовый и самый горячий из условно мобильной линейки процессоров на 45+ Вт.
ну так HS есть и на 35 ватт, какая разница, сколько в общем может жрать проц, если тест однопоточный?
Только максимальный буст до 4,8 в данном случае играет роль.
С учетом, что на 15 ватт они прекрасно достигают 4,4, то явно при желании могли б запилить какой 5980U чуть позже с турбо до 4.8 на ядро из тщательно отобранных у пользователей кристаллов.
упоминаете дискретные GPU, как будто интегрированной графики у конкурентов вообще не существует.
а интегрированный гпу конкурент дискретному? а ещё лучше вопрос: а кроме интегрированного гпу что-то было предложено? ну там, внешнее хотя бы… или это пользователям эпла по-любому не нужно?
микроархитектура Apple уже на пределе, дальнейшее развитие невозможно,
Всё возможно, почему.
Правда тут оказывается, что кристалл уже большой, сравним с чипами приставок по бюджету транзисторов. Нарастить гпу даже не в два раза (ну, если конкурировать с дискретными чипами в ноутах) и цпу в два — это его сделать сравнимым по данному бюджету с серверным гравитеёшеном 2 и мне очень интересно, в какую цену обойдутся девайсы с подобными чипами, особенно в связи с тем, что чем больше кристалл, тем больше брака?
Так что запасаюсь попкорном и жду в два раза больше ядер от Эпл. Всё же интересно посмотреть, как они выкрутятся, ибо более топовые решения без внешней графики будут смотреться… так себе.
какая разница, сколько в общем может жрать проц, если тест однопоточный

Разница в прогреве коленок и разряде батарейки, очевидно же.


а интегрированный гпу конкурент дискретному?

Младшим дискретным — уже да. По производительности, не по нише.
Intel Xe, кстати, тоже неплохое улучшение в сравнении с прошлыми поколениями, и делает практически бессмысленными GeForce MX, 10xx серии (да, их реально ставят в новые ноутбуки).


а ещё лучше вопрос: а кроме интегрированного гпу что-то было предложено?

Нет. Как и раньше не было в этих моделях.
Если нужно мощнее — есть старшие Intel версии с дискретками, их пока не апгрейдили.


Всё возможно, почему.

Ну вот один архитектор тут под одним из прошлых постов признавался, что они не знают, как M1 вообще получилось сделать, и считает, что это физический предел, дальше некуда.


Правда тут оказывается, что кристалл уже большой, сравним с чипами приставок по бюджету транзисторов.

Вы уже несколько месяцев ходите с причитаниями про количество транзисторов, но так и не объяснили на что это влияет.
Текущий M1 (по расчётам диванных аналитиков) обходится Apple примерно в $25-45 за кристал, что в несколько раз ниже закупочной цены на чипы от Intel для прошлых поколений. Даже если предположить, что условный M1X будет просто монолитом в 2x площади, это поднимет цену всего в 2.5-3 раза (это с учётом defect rate и заполнения пластин), и будет всё ещё дешевле топовых ноутбучных чипов от Intel.
При этом мы вообще не знаем, как именно они решили масштабировать свои CPU/GPU. Зато знаем, что в этих решениях настолько уверены, что поставили весь бизнес маков на них.


Так что запасаюсь попкорном и жду в два раза больше ядер от Эпл.

Если условный M1X внезапно побьёт 5900H/5980HS в многопотоке Geekbench и Cinebench, а макбук с ним не подорожает относительно предыдущего поколения, признаете свою неправоту?
(Про GPU не готов делать прогнозов — в их линейке никогда не было игровых ноутбуков, и топовых GPU не ставили, так что я не ожидаю ничего масштаба RTX 30xx Mobile).

Разница в прогреве коленок и разряде батарейки, очевидно же.
в однопоточном тесте?
Прогрев будет только в многопоточном, на все 45 ватт.
Младшим дискретным
ну вот амдшные идут от 1660 до 2060чего-то там. Это если H. и вообще — если это U.
И?
То, что 30к ноуты не конкуренты 100к эплу никто не спорит
Ну вот один архитектор тут под одним из прошлых постов признавался, что они не знают, как M1 вообще получилось сделать, и считает, что это физический предел, дальше некуда.
Гравитейшен 2 — 30 млрд на 7 нм, вроде. Предел найден? )
Вы уже несколько месяцев ходите с причитаниями про количество транзисторов, но так и не объяснили на что это влияет.
На брак и стоимость. Внезапно, да?
что в несколько раз ниже закупочной цены на чипы от Intel для прошлых поколений
интел молодцы. долго доили рынок, что сказать
и будет всё ещё дешевле топовых ноутбучных чипов от Intel.
уверены? ну, как бы рынок уже изменился… скосил глаз на маркет: хотя да, подозреваю, что тут вы правы… это будет дешевле интелов…
При этом мы вообще не знаем, как именно они решили масштабировать свои CPU/GPU.
Подозреваю, что не просто простым x2 больших ядер. а гпу — нужно выносить/дискретное.
Если условный M1X внезапно побьёт 5900H/5980HS в многопотоке Geekbench и Cinebench,
Верю, вполне сможет сравняться, на один поток быстрее, 8 больших ядер. Не верю, что это будет не в том же ваттном диапазоне, что у АМД.
а макбук с ним не подорожает относительно предыдущего поколения
тот, который на дорогих интелах? а что это докажет? что у Эпл всегда была хорошая маржа?
Пока я 4800U в лучшей обвязке кроме супер-пупер экрана нахожу по цене 0,6-0,7 от минимального маковского ноута, а 4800H с 16 гигами, с 2060 с 6 гигами и терабайтом находил по цене примерно на уровне минимального маковского ноута что мне должен доказать факт того, что эпл могла урезать моржа?

Мне просто в тех темах приводили макмини, как конкурента консолям. И что эпл легко создаст игровой макмини, и сможет продавать по цене консолек текущих.
Ну и что игровые ноуты слишком дорогие, лучше взять эпл + консоль, правда доказать, но что это не будет в два раза дороже человек так и не смог, особенно с учетом. что до этого он так же с жаром доказывал, что консоль без подписки не имеет смысла, а с подпиской на много лет будет стоить столько же, сколько минимальный макмини.
Ну вот такие вот отношения с математикой у некоторых фанатов эпла.

А так, я не говорю, что m1x будет настолько больше, что цена станет дороже сильно. я про предел, если требуется создать что-то круче и в цпу, и в графике. или сделать декстопный проц.
в однопоточном тесте?
Прогрев будет только в многопоточном, на все 45 ватт.

В однопотоке будет 15-20 Вт с турбо-режимом. В сравнении с 3.5-5 Вт разница в батарейке будет ощутимой, и вентиляторы включить придётся.


ну вот амдшные идут от 1660 до 2060чего-то там. Это если H. и вообще — если это U.

Младшие AMD ноуты идут и с 1050, и с MX350. И более старшие бывают совсем без дискретки — не всем нужны игровые станции вместо ноутбуков.


Гравитейшен 2 — 30 млрд на 7 нм, вроде. Предел найден? )

Он говорил не про количество транзисторов, а про алгоритмы.


На брак и стоимость. Внезапно, да?

На это влияет площадь и техпроцесс, которые с количеством транзисторов связаны далеко не линейно. Плотность также зависит от микроархитектуры.


уверены? ну, как бы рынок уже изменился… скосил глаз на маркет: хотя да, подозреваю, что тут вы правы… это будет дешевле интелов…

Топовые Tiger Lake, по косвенным оценкам, обходятся производителям платформ в $150-250 за чип.


Подозреваю, что не просто простым x2 больших ядер. а гпу — нужно выносить/дискретное.

Поэтому я и говорю, просто экстраполировать площадь кристала тут бессмысленно, без понимания, как именно Apple проектирует будущие чипы.
Если вынести GPU и добавить ещё столько же CPU ядер, то площадь основного кристала даже уменьшится по сравнению с текущим M1.


Верю, вполне сможет сравняться, на один поток быстрее, 8 больших ядер. Не верю, что это будет не в том же ваттном диапазоне, что у АМД.

Для 8+8 это будут максимальные 30 Вт и серьёзный перевес по многопотоку.


тот, который на дорогих интелах? а что это докажет? что у Эпл всегда была хорошая маржа?

То, что все эти разговоры про невероятно огромные чипы никак не отразятся на конечном потребителе.


Мне просто в тех темах приводили макмини, как конкурента консолям.

Никакой не конкурент для игр, конечно, а по цене никогда и не будет. Приставки продаются с отрицательной маржой.


Ну и что игровые ноуты слишком дорогие, лучше взять эпл + консоль

Ну я примерно в эту же сторону склоняюсь, потому что мне надоели печки на коленях, которые не живут больше 4 часов. А играю я значительную часть времени в VR, и тут игровой ноут очень серьёзно проигрывает старому доброму десктопу.


консоль без подписки не имеет смысла, а с подпиской на много лет будет стоить столько же, сколько минимальный макмини.

Для Sony/MS средняя консоль на играх/подписке приносит как раз дополнительно около $500 за время жизни. Консоли — довольно выгодный бизнес. И то, что можно экономить, не играя в новые игры, мало кому служит утешением.


А так, я не говорю, что m1x будет настолько больше, что цена станет дороже сильно. я про предел, если требуется создать что-то круче и в цпу, и в графике. или сделать декстопный проц.

M1 уже довольно неплохой десктопный 4-ядерник, говорю как довольный пользователь M1 Mini.
Большое количество ядер и мощные GPU мы обязательно увидим в следующие год-полтора, когда будет время обновлять iMac Pro/Mac Pro.
Я не вижу, какой тут может быть предел, если не считать, что всё должно быть на одном кристале. И даже сейчас есть кристалы, например видеокарт, которые многократно больше M1, и конечные продукты с ними продаются в рознице за подъёмные деньги.

Младшие AMD ноуты идут и с 1050, и с MX350
Да, не указал, что сравнению с M1 подлежат только 8 ядерные АМД, прочие — нет. То есть если выбрать 8 ядер нового поколения, то там так.
Извините, сравнивать ноуты за терть от цены минимального эпла как-то вообще странно в этом плане, вам не кажется?
Он говорил не про количество транзисторов, а про алгоритмы.
а, тут не могу сказать.
На это влияет площадь и техпроцесс, которые с количеством транзисторов связаны далеко не линейно.
Плотность и техпроцесс вполне себе неплохо связаны, на 5 нм вроде как +30% транзисторов с тем же количеством брака, как на 7нм получается примерно.
Поэтому я и говорю, просто экстраполировать площадь кристала тут бессмысленно, без понимания, как именно Apple проектирует будущие чипы.
Ну обычно мне звучали аргументы, что теперь же просто всё, докинуть в 2 раза больше ядер и алга! Вот поэтому мне интересно, что сделает Эпл)
Для 8+8 это будут максимальные 30 Вт и серьёзный перевес по многопотоку.
Зачем 8+8? 8Б+4М, ставлю на такую схему. Смысла увеличивать мелкие по мне нет, они ж для энергоэффективности.
Вот я на сходный многопоток ставлю. И на то, что при переносе с 7 на 5 нм амд догнал бы по энергии ±, то есть тут преимущество чисто технологическое.
Никакой не конкурент для игр, конечно, а по цене никогда и не будет. Приставки продаются с отрицательной маржой.
Для Sony/MS средняя консоль на играх/подписке приносит как раз дополнительно около $500 за время жизни.
Теперь посмотрите на начинку консоли, на её цену, добавьте 500$, посмотрите на цены миников… Теперь понятна моя позиция и её причины в тех спорах? )
Ну я примерно в эту же сторону склоняюсь, потому что мне надоели печки на коленях, которые не живут больше 4 часов. А играю я значительную часть времени в VR, и тут игровой ноут очень серьёзно проигрывает старому доброму десктопу.
Ну вы ж понимаете, что на АМД я это решу для себя ещё дешевле? Проиграв в экране, но лично Я этого не особо замечу. Либо надо очки поменять
M1 уже довольно неплохой десктопный 4-ядерник, говорю как довольный пользователь M1 Mini.
Скажем так, нет претензии, что 4 ядер для M1 не хватит для работы за компом. Меня печалит, что за те же деньги я вижу ноуты с 4800H, 16 гб, 0,5-1 тб и 1660Ti с 4 гб. Жалко, что их без дисплея, клавиатуры и тачпада не продают, ага. Да и корпус можно попроще
Я не вижу, какой тут может быть предел, если не считать, что всё должно быть на одном кристале.
Ну тут нюанс, что разделение кристаллов может вести к падению производительности.
Короче, будет интересно. Одно ясно, что интел пока в этом уравнении даже не переменная, а просто «C»
Извините, сравнивать ноуты за терть от цены минимального эпла как-то вообще странно в этом плане, вам не кажется?
приведите пример ноутбука на 4800U за 30к.
Плотность и техпроцесс вполне себе неплохо связаны, на 5 нм вроде как +30% транзисторов с тем же количеством брака, как на 7нм получается примерно.
+70%*. По числу дефектов на единицу площади поровну получается, а плотность у 5нм выше как раз примерно на 70%.
Вот я на сходный многопоток ставлю. И на то, что при переносе с 7 на 5 нм амд догнал бы по энергии ±, то есть тут преимущество чисто технологическое.
про это забываем. AMD только в следующем году представят мобильные решения на 5 нм, к тому моменту apple уже 3 нм клепать будет.
Меня печалит, что за те же деньги я вижу ноуты с 4800H, 16 гб, 0,5-1 тб и 1660Ti с 4 гб. Жалко, что их без дисплея, клавиатуры и тачпада не продают, ага. Да и корпус можно попроще
с таким качеством сборки что хочется доплатить еще 50 к за нормальный ноут?
приведите пример ноутбука на 4800U за 30к.
А где я такое написал? Вы как обычно пришли читать про диагонали? Что вы там про адекватных людей писали? Ну так, вначале читать научитесь, после чего отвечать хотя бы в рамках свои ответов в одной канве.
Жду от вас прямого ответа, что не так в вашем фигурном цитировании и что я там написал на самом деле.
+70%*. По числу дефектов на единицу площади поровну получается, а плотность у 5нм выше как раз примерно на 70%.
Чёрт, забыл уже число. Вы правы, видимо 70%.
про это забываем.
ну то есть конкуренция на арм vs x86, а техпроцессом?
с таким качеством сборки что хочется доплатить еще 50 к за нормальный ноут?
асусы имеют нормальную сборку. HP вроде как тоже. Lenovo. но для вас главное же любой ценой аргумент оспорить?
А где я такое написал?
здесь: «Извините, сравнивать ноуты за терть от цены минимального эпла как-то вообще странно в этом плане, вам не кажется?». Или вы отрицаете существование ноутов с 4800U и всякими 1660? Или треть от макбука за 100к рублей не транслируется в порядка 30-33к рублей?
ну то есть конкуренция на арм vs x86, а техпроцессом?
я про то, что на одинаковом техпроцессе intel/amd смогут конкурировать с apple только лет через 5, а к тому моменту очень многое может измениться.
асусы имеют нормальную сборку. HP вроде как тоже. Lenovo. но для вас главное же любой ценой аргумент оспорить?
вы давно вообще в магазине последний раз были и качество сборки ноутов смотрели? Я например готов отметать ноуты, в которых верхняя часть тачбара нажимается с некомфортным усилием, а это подавляющее большинство не-макбуков. А то что вы сравниваете пластиковые ноуты с цельноалюминиевыми тоже не имеет значения?
Классика
здесь: «Извините, сравнивать ноуты за терть от цены минимального эпла как-то вообще странно в этом плане, вам не кажется?». Или вы отрицаете существование ноутов с 4800U и всякими 1660? Или треть от макбука за 100к рублей не транслируется в порядка 30-33к рублей?

Мои слова:
ну вот амдшные идут от 1660 до 2060чего-то там. Это если H. и вообще <пропущено, косяк мой: без>— если это U.
И?
То, что 30к ноуты не конкуренты 100к эплу никто не спорит
Младшие AMD ноуты идут и с 1050, и с MX350

Да, не указал, что сравнению с M1 подлежат только 8 ядерные АМД, прочие — нет. То есть если выбрать 8 ядер нового поколения, то там так.
Извините, сравнивать ноуты за терть от цены минимального эпла как-то вообще странно в этом плане, вам не кажется?

Спасибо за доказательство моего тезисы:
Вы как обычно пришли читать про диагонали?
Опять начнёте фигурно выдергивать фразы и переиначивать свои слова, чтоб доказать, что я говорил то, что вы имели ввиду?
Viknet вот теперь понимаете, в каких обсуждениях обычно я отвечаю и почему так?
я про то, что на одинаковом техпроцессе intel/amd смогут конкурировать с apple только лет через 5, а к тому моменту очень многое может измениться.

Я например готов отметать ноуты, в которых верхняя часть тачбара нажимается с некомфортным усилием, а это подавляющее большинство не-макбуков
асусы имеют нормальную сборку.
«Сборка» = «используемый тачбар».
А то что вы сравниваете пластиковые ноуты с цельноалюминиевыми тоже не имеет значения?
Давайте так, вы сейчас перечитаете все мои сообщения и извинитесь за все наезды, которые были сделаны по причинам того, что вы читаете то, что вам захотелось?
Покажете пример адекватного человека.
M1 уже довольно неплохой десктопный 4-ядерник, говорю как довольный пользователь M1 Mini.
Скажем так, нет претензии, что 4 ядер для M1 не хватит для работы за компом. Меня печалит, что за те же деньги я вижу ноуты с 4800H, 16 гб, 0,5-1 тб и 1660Ti с 4 гб. Жалко, что их без дисплея, клавиатуры и тачпада не продают, ага. Да и корпус можно попроще<действительно, что же этия я мог иметь ввиду>
Да, не указал, что сравнению с M1 подлежат только 8 ядерные АМД, прочие — нет. То есть если выбрать 8 ядер нового поколения, то там так.
Извините, сравнивать ноуты за терть от цены минимального эпла как-то вообще странно в этом плане, вам не кажется?

Сорри, я совсем потерял нить этого обсуждения. Вы спросили, является ли конкурентом дискреткам интегрированное GPU в M1, я явно ответил, что только младшим. Эти младшие сейчас всё ещё ставятся в ноутбуки.
Ни к каким дальнейшим выводам я не вёл.


Плотность и техпроцесс вполне себе неплохо связаны, на 5 нм вроде как +30% транзисторов с тем же количеством брака, как на 7нм получается примерно.

На той же микроархитектуре.
Плотность A13 на 55% выше, чем у основного кристала 5800x, хотя они на одном техпроцессе сделаны.


Зачем 8+8? 8Б+4М, ставлю на такую схему. Смысла увеличивать мелкие по мне нет, они ж для энергоэффективности.

Это я для простоты рассчётов. Скорее всего, да, маленьких ядер больше не станет, а вот про количество больших ядер пока нет понимания.


Теперь посмотрите на начинку консоли, на её цену, добавьте 500$, посмотрите на цены миников…

Я вот не понимаю зачем их вообще сравнивать. Это устройства с разной, почти не пересекающейся функциональностью.


Ну вы ж понимаете, что на АМД я это решу для себя ещё дешевле?

Только пойдя на компромисс в автономности, а возможно и производительности.


Меня печалит, что за те же деньги я вижу ноуты с 4800H, 16 гб, 0,5-1 тб и 1660Ti с 4 гб.

Меня не очень печалит, потому что для моих задач 4800H будет медленнее, а 1660Ti будет греться и шуметь. И никакой макоси. Но это всё, конечно, уже персональные предпочтения.

Ни к каким дальнейшим выводам я не вёл.
Извиняюсь, обычно чаще всего ведут к конкретным выводам и я уже привык к тому, что обычно так намекают.
На той же микроархитектуре.
Меня поправил человек, который вроде ссылку и давал, что там было до 70%. С 30% я был не прав.
а вот про количество больших ядер пока нет понимания.
ну, судя по приведённой новости, ожидаются решения на ещё большее количество ядер и на весьма мощную ГПУ (даже если их взять по минимальным цифрам).
Это уже будет прямой вызов всей экосистеме x86. И круто.
Только пойдя на компромисс в автономности, а возможно и производительности.
Ну, я конкретно рассматривал 4800U за, если не ошибаюсь, 60-70к в момент анонса эпл. Так что в основном по экрану. Проигрыш одного потока, но 16 потоков на рабочем ПК 2600 вполне себе показали мне, что мне реально больше не надо для всех моих задач, которые за счет множества потоков не мешают мне просто работать, пока в фоне что-то делается активно. (4800U vs 2600x)
Меня не очень печалит, потому что для моих задач 4800H будет медленнее, а 1660Ti будет греться и шуметь.
Так видик греется и шумит только в момент его нагрузки, так то он отключен (на примере старого ноута с нвидия — это прекрасно работало)
И ноут в ответ на макмини m1 я привёл потому, что никто, нехорошие люди, никто не выпускает минидекстопов на амд. Поэтому в сравнении с макмини приходится выставлять ноут…
Меня поправил человек, который вроде ссылку и давал, что там было до 70%. С 30% я был не прав.

Я вёл к тому, что вклад микроархитектуры в плотность очень велик, что можно увидеть сравнив A13 и 5800X на одном процессе TSMC N7P. И переход 7nm->5nm может выглядеть у AMD совсем не так, как у Apple.


Ну, я конкретно рассматривал 4800U

Они не живут реальных 10-15 часов даже при лёгкой работе.


Так видик греется и шумит только в момент его нагрузки, так то он отключен

Или когда внешний 4k-монитор подключен. Или когда видео посмотреть захотелось. И ещё в куче разных случаев. Мой корпоративный макбук взлетает на ровном месте, когда какой-нибудь Zoom или Slack захотел видеокарту зачем-то.


И ноут в ответ на макмини m1 я привёл потому, что никто, нехорошие люди, никто не выпускает минидекстопов на амд.

Вообще выпускают. На том же Anandtech есть несколько обзоров мелких коробочек с Renoir.

Или когда внешний 4k-монитор подключен.
Эм, конечно в 4800H видик встроен похуже, но… 4k ему не проблема.
в драйверах нвидии давно были настройки, что запускать только с такими-то программами, ещё на 730 встройке при i5 второго поколения. 4k, правда, на нём я не могпроверить, но…
Фиг знает, есть ли тоже самое под эпл, но на винде думаю до сих пор есть
Вообще выпускают. На том же Anandtech есть несколько обзоров мелких коробочек с Renoir.
Ну, анонсы типа ASROCK 4X4 BOX-4800U — да, были. Найти не реально. В этом плане макмини выигрывает)
Эм, конечно в 4800H видик встроен похуже, но… 4k ему не проблема.

4800U
Выводить, конечно, может, пиксельрейт позволяет. Только, скорее всего, будет лагать даже с композингом окошек с видео. По крайней мере, так было на встройке Intel до последнего поколения.


в драйверах нвидии давно были настройки, что запускать только с такими-то программами

Иметь достаточно производительную и холодную встройку удобно именно тем, что вот этим всем не надо заниматься вообще.

4800U
Его с внешними видиками не ставят, при этом у Ryzen 7 4800H интегрированы 7 графических ядер, а у 4800U — 8, то бишь графика в 4xxxH даже похуже встроенная. Поэтому я 4800h написал, что даже у него хватить должно.
И это процентов на 30 слабее эпловской, вроде.
Интел в последнем поколении, кстати, графику как раз выкатил встроенную неплохую. Но он уже не успевает
Иметь достаточно производительную и холодную встройку удобно именно тем, что вот этим всем не надо заниматься вообще.
Ну тут либо игровая мощность, либо без мороки. Но мне было вполне норм через пункт контекстного меню «запустить с внешней видеокартой»
Его с внешними видиками не ставят, при этом у Ryzen 7 4800H интегрированы 7 графических ядер, а у 4800U — 8, то бишь графика в 4xxxH даже похуже встроенная.

Производительность встроенной графики по тестам у H вроде побольше, чем у U. Правда, и потребление выше.


Поэтому я 4800h написал, что даже у него хватить должно.

Сорри, это я спутал.


Интел в последнем поколении, кстати, графику как раз выкатил встроенную неплохую.

Её хотя бы для банальной работы с окошками на нескольких мониторах хватит, уже неплохо.

Производительность встроенной графики по тестам у H вроде побольше, чем у U. Правда, и потребление выше.
Гм, ядер на H точно меньше: 7 против 8. Частота 1600 против 1750. Вроде как всё таки слабее, хоть и не принципиально. В играх сложнее, там же может всё таки и от проца зависеть (базовые сильно отличаются).
То, что 30к ноуты не конкуренты 100к эплу никто не спорит
чет ноуты с 4800H и 1660 ни разу не за 30 предлагают
Верю, вполне сможет сравняться, на один поток быстрее, 8 больших ядер. Не верю, что это будет не в том же ваттном диапазоне, что у АМД.
а чего это не верим то? 4800U выдает процентов на 25 больше чем M1 в многопотоке потребляя в полтора раза больше
Мне просто в тех темах приводили макмини, как конкурента консолям
где, товарищ наглый лгун? Где я говорил что «макмини конкурент консолям»?
чет ноуты с 4800H и 1660 ни разу не за 30 предлагают
Вы дважды вычитали то, что захотели и прямо противоположное написанному, но после этого рассказываете про «заткнуться» и «адекватные люди»?
Фейсплам.жпг
Опять начнёте фигурно выдергивать фразы и переиначивать свои слова, чтоб доказать, что я говорил то, что вы имели ввиду? «товарищ наглый лгун» в данном случае — вы. Мои оба ответа в этой теме доступны всем. Не моя вина, что читать и думать над прочитанным вы разучились, а на глазах красная пена как будто. Кармаресет вам не помог и аргументация у вас так и осталась ниже плинтуса
2Viknet
Am0ralist вообще не готов ответить за свои слова.
В июле он писал, что «офигеет», если эппл сможет выкатить что-то сравнимое с х86.

По факту, начались отмазки и ужимки…
Ну так я всё ещё жду, когда покажут сравнимое с x86. Или для вас x86 это только ультрабуки и тесты с упором на одно ядро?
А не весь спектр процессоров и задач ими покрываемый даже для обычного пользователя, в том числе возможность работы с видеокартами (видимо пользователям эпл не нужны юсб, функциональные клавиши, разъем для наушников, и, тем более, игры)?
Всегда заявлялось, что арм — это маленькое, простое, маловатное и дешевле и этим они типа круче x86. В итоге гигансткие чипы, потребление которых ниже за счёт более свежего техпроцесса, а стоимость явно выше, да и которые стали возможны только из-за 5нм по сути. Ну ок, то есть догнали за счёт создания ещё более сложного чипа, теперь хочется увидеть масштабируемость вверх.

Но я офигел. Особенно я офигел потоку x86мастадай на хабре, в который превратились вопли восторга, которые на перебой стали рассказывать, как эпл задоминировал конкурентов мощью.

Просто по вашему, если я офигею, то должен буду после этого стать фанатиком или сразу все аргументы перестать воспринимать критически? Извините, что разочаровал.

Да, M1 — решение для ультрабуков лучшее, с рядом ограничений. Интел и рядом пока не валяется. АМД вполне валяется, но теперь есть куда стремиться. Отлично, конкуренция продолжается, даже если интел помрёт.
Ну так я всё ещё жду, когда покажут сравнимое с x86. Или для вас x86 это только ультрабуки и тесты с упором на одно ядро?
эппл и представила продукт только в этом сегменте.
Просто по вашему, если я офигею, то должен буду после этого стать фанатиком или сразу все аргументы перестать воспринимать критически? Извините, что разочаровал.
нет, адекватный человек при появлении новой информации меняет мнение. У вас я смотрю ничего не поменялось с лета.

Публично признавать свою неправоту сложно.
Давайте не будем опускать уровень дискуссии, и вернёмся к уважительному общению, мы здесь не ради удовлетворения ЧСВ собрались.

Правда тут оказывается, что кристалл уже большой, сравним с чипами приставок по бюджету транзисторов.

Cколько там транзисторов мало кого волнует.
Цена определяется площадью и выходом годных кристаллов.
Кристалл Xbox Series X — 360.45 mm²
Apple M1 119 mm²

С 300мм пластины выходит ~430 годных чипов при плотности дефектов 0,1.
Значение для 5нм TSMC не озвучивали, но для 7нм оно составляет 0,09.
Пластины с 5нм стоят довольно дорого — около $17к (по слухам).
$17000/430 = $39 за сам кристалл (до биннинга).

А вот размеры кристаллов прошлых процессоров Apple:
Apple A5X 163mm²
Apple A9X 147mm²
Apple A12X 122mm²

Нарастить гпу даже не в два раза и цпу в два — это его сделать сравнимым по данному бюджету с серверным гравитеёшеном 2

CPU+GPU занимают <50% кристалла.
Если увеличить их вдвое, размер кристалла увеличится до 180,
что более чем вдвое меньше чем Graviton2.

CPU+GPU занимают <50% кристалла.
Если увеличить их вдвое, размер кристалла увеличится до 180,
что более чем вдвое меньше чем Graviton2.
Да, смотрим:
image
Только не забываем, что кроме просто добавить обычно нужно ещё переработать много чего для правильной коммутации. И это не говоря про всякие улучшалки в видиках, типа лучей и прочего, они ж тоже жрут место.

Тогда как амд обновив до зен3 ядра и выпустив на 5 нм получит ещё + процентов 30 прироста для приставочных чипов легко в размер M1 + 10%.
И это всё ещё так и останутся решениями для ноутов или простых ПК. До рабочих станций решение всё так же не подойдёт
PS.
Значение для 5нм TSMC не озвучивали, но для 7нм оно составляет 0,09.
Помню, мне кидали ссылку, что на зен2 у амд процент брака был менее 30%, тогда как у интела на 28 ядерных чипах — 75% было браком.
Только нужно помнить, что стандартные чипы 7 нм на зен2 — это кристаллы в 4 млрд транзисторов, которые сортируются по браку ядер, поддерживаемых частот и стабильности, так сказать, после чего из них выпускают процессоры вплоть до 4 ядра, по два из разных групп и всё это без потоков, а не только топовые 8/16 чиплеты на максимальных частотах под 5 ГГц. То есть вот амд выжимает из этого максимум, позволяя сильно уменьшать стоимость данных чиплетов для себя, чего не мог сделать интел.
У апушек ноутных уже будет другой выход, хотя и там отсекаются и потоки, и частоты, и ядра на раз.
У эпл есть только выключенное ядро в видео…
Только не забываем, что кроме просто добавить обычно нужно ещё переработать много чего для правильной коммутации.

Много чего? Второй кластер из 4 ядер подключается к тому же системному кэшу. GPU так же легко масштабируется (по крайней мере до определённого лимита).
12/16 ядерники выйдут в этом году.

до рабочих станций решение всё так же не подойдёт

www.bloomberg.com/amp/news/articles/2020-12-07/apple-preps-next-mac-chips-with-aim-to-outclass-highest-end-pcs

For higher-end desktop computers, planned for later in 2021 and a new half-sized Mac Pro planned to launch by 2022, Apple is testing a chip design with as many as 32 high-performance cores.

У эпл есть только выключенное ядро в видео…

For its future high-end laptops and mid-range desktops, Apple is testing 16-core and 32-core graphics parts.
For later in 2021 or potentially 2022, Apple is working on pricier graphics upgrades with 64 and 128 dedicated cores aimed at its highest-end machines

Сейчас 8 ядер и 2,6TFLOPS.
Посчитать флопсы и размер кристалла 128 ядерного GPU предоставляю вам =)
Второй кластер из 4 ядер подключается к тому же системному кэшу.
угу, напомнить 2 CCX в одном CCD и что при объединении в 8 ядер в одну группу на zen3 это так же позволило нарастить производительность. По-моему, тут «просто» не бывает.
For higher-end desktop computers, planned for later in 2021 and a new half-sized Mac Pro planned to launch by 2022, Apple is testing a chip design with as many as 32 high-performance cores.
For its future high-end laptops and mid-range desktops, Apple is testing 16-core and 32-core graphics parts.
For later in 2021 or potentially 2022, Apple is working on pricier graphics upgrades with 64 and 128 dedicated cores aimed at its highest-end machines
Слушайте, а вот это уже будет бомба. Спасибо.
А то 8 ядерниками пугают, пугают…
Думаю, всё ж в два чипа сделают, но для декстопов это не важно. Ну, тут тогда подвинуться придётся всем и на рынке видео, и на рынке процов.
Правда тут оказывается, что кристалл уже большой, сравним с чипами приставок по бюджету транзисторов
черт подери, да хоть бы раз, один раз, сравнил не с игровым устройством, которое не умеет ни во что что нужно ноутбуку, а с прямым конкурентом, посмотрел на цифры, сделал выводы, и забыл про этот чертов аргумент. У мобильного 4800U на TSMC 7nm 10 млрд транзисторов, и в нем нет ни нейроускорителя, ни поддержки thunderbolt
Так что запасаюсь попкорном и жду в два раза больше ядер от Эпл. Всё же интересно посмотреть, как они выкрутятся, ибо более топовые решения без внешней графики будут смотреться… так себе.
мне интересно, а когда это произойдет, вы наконец заткнетесь про бюджет транзисторов, или продолжите песню уже с формулировкой «ну дальше то они точно никак не нарастят»?
Товарищ, который из 2a=b и a+c=b сделал вывод, что я согласился с ним, что a=b, а так же так и не привёл мне простую математику, доступную всем, как подсчитать из указанных условий процент брака, чертыхается и что-то мне говорит?
Опять решили взять на спор, что докажете мне, что я такое говорил, а в итоге покажете не то и не так, но будете рассказывать, что когда говорили что я говорил такое-то, то имели ввиду другое, а значит вы типа всё доказали?
а то
мне интересно, а когда это произойдет, вы наконец заткнетесь
затыкать рот другим вы любите, но ещё больше чужие слова перевирать обвиняя, а потом выдавать за доказательства нерелевантное обвинению. Но сами почему-то раз за разом не затыкаетесь.
У мобильного 4800U на TSMC 7nm 10 млрд транзисторов, и в нем нет ни нейроускорителя, ни поддержки thunderbolt
а у эпла есть поддержка лучей, длсс и прочего в видике, как в коробках?
А M1 поддерживает работу с внешними видками? Ах да, я забыл, тандерболт же не подразумевает… ой, постойте.
Опять решили взять на спор, что докажете мне,
чисто статистически, безнадежно даже пытаться. Я буду просто по мере появления новых фактов, противоречащих вашим утверждениям, вас в них тыкать.
А M1 поддерживает работу с внешними видками? Ах да, я забыл, тандерболт же не подразумевает… ой, постойте.
Поддержка thunderbolt гарантирует по сути передачу данных по PCIe, а дальше дело только в драйверах. Драйвера же под M1 не пишут потому, что это нерационально. Но это не значит что невозможно.
Я буду просто по мере появления новых фактов, противоречащих вашим утверждениям, вас в них тыкать.
Как вы дважды уже перелгали мои слова в этой теме? Это вам долго придётся.

Так это… может стоит вам вначале заткнуться и начать думать над тем, что читаете, прежде чем писать? А то тыкалка не выросла.
А потом стоит ту же математику подучить. И наконец показать мне ваши великие рассчёты, доступные любому дураку (утрируя ваш тот аргумент). Если там всё будет логично, я признаю, что в математике вы посчитали всё правильно.
А пока вы даже систему из двух простых словесных уравнений не можете признать, что решили не верно.
мне простую математику, доступную всем, как подсчитать из указанных условий процент брака

caly-technologies.com/die-yield-calculator
(Сайт лежит на данный момент)
Клон работает
cloud.mooreelite.com/tools/die-yield-calculator/index.html

а у эпла есть поддержка лучей, длсс и прочего в видике, как в коробках?

«Лучи» у AMD это небольшой блок определения пересечений в текстурнике.
В отличии от «коробок», NPU в Apple аппаратный.
www.eurogamer.net/articles/digitalfoundry-2020-inside-xbox-series-x-full-specs
The RDNA 2 architecture used in Series X does not have tensor core equivalents, but Microsoft and AMD have come up with a novel, efficient solution based on the standard shader cores.
Они доработали умножитель так, чтобы он умел считать вместо 32*32бит умножения 4 x 8*8бит или 8 x 4*4бит, о чём написано в тексте.
32*32: 12+ / 16*16: 24+ / 8*8: 49 / 4*4: 97 TOPS
Но это пиковая производительность умножения и не учитывает стриминг/упаковку/распаковку данных.
NPU в Apple считает всё в FP16 (11TFLOPS), но делает это параллельно с работой CPU/GPU.

А M1 поддерживает работу с внешними видками?

Объясните, почему именно M1 тут виноват, а не банальное отсутствие драйверов?
(Сайт лежит на данный момент)
Клон работает
Там был аргумент в духе «я выдал число, сами мол посчитаете» после чего я уточнил, а с чего были взяты именно такие, если по ссылке говорится про обычные zen2 и попросил пересчитать с демонстрацией мне, как надо.
Человек просто стал избегать ответов и продолжил в других местах меня фигурно нарезать и обвинять примерно так же, как в этой теме уже несколько раз попытался типа ткнуть в мои косяки. Теперь я ему каждый раз напоминаю, чтоб перестал доставать подобной нарезкой и выдумыванием подобных аргументов.
Объясните, почему именно M1 тут виноват, а не банальное отсутствие драйверов?
Хм, не знаю, например, потому что:
Первые подозрения возникли после появления в документации разработчиков информации, подразумевающей, что поддержка всех графических процессоров сторонних производителей будет прекращена.

Кроме того, Apple удалила Blackmagic eGPU из списка совместимых аксессуаров для Mac mini, MacBook Air и MacBook Pro с чипами Apple Silicon.
Хм, не знаю, например, потому что:
И что с того?
Apple делает ставку на кэш когерентность GPU, а текущий коннект через TB этого не обеспечивает. Но это не значит что GPU не может работать.
twitter.com/cmwdotme/status/1353185336747315200
Вот когда техдир Corellium напишет, что это невозможно по таким-то причинам, только тогда и можно будет предметно говорить.
Ну, пока он вроде говорит, что пока сие не работает, а Эпл просто ничего не говорит, зато действиями показала относительно M1, что на текущем этапе технология по их мнению не поддерживается, разве я не прав?
Но буду рад узнать, если у людей получится реализовать это, кстати. Так что если увидите новости — киньте? Чтоб быть хотя бы в курсе развития.
У 5980HS TDP заявлен на уровне 35 Вт и он действительно потребляет эту мощность после 10 минут. До этого — 42 Вт. При этом многоядерная производительность у этого чипа гораздо выше чем у М1 и сравнивать их не совсем корректно.

Если взять Tiger Lake, то тестов тоже довольно много. Вот достаточно большое сравнение: openbenchmarking.org/result/2012250-FI-2012032FI40 Самое забавное, что в большинстве тестов 1165G7 оказывается быстрее.

Что касается комментариев инженера, то вы совершенно не поняли что он вам пытался объяснить. Начнем с того, что декодер в принципе не является узким местом современного процессора.

Все решает конвейер обработки микроопераций. Конкретно в этом конвейере самое узкое место — это блок переименования. Сложность заключается в том, что с увеличением его ширины логика усложняется квадратично. Вместе с увеличением количества логики снижается и максимальная рабочая частота. Здесь имеет место чистая физика. Вся цепочка переключений должна происходить в один такт.

Грубо говоря, разработка современного процессора — это задача оптимизации всех его стадий. Да, можно декодировать хоть тридцать команд за такт, но какой в этом смысл, если дальнейшая логика может переварить только 8.

Да, можно расширить ширину блоков переименования, количества планировщиков, а также исполнительных блоков, но вот чип в итоге получится не только большим по площади, но и не сможет работать на частоте выше условных 2 ГГц просто потому что все два десятка логических элементов не будут успевать переключиться в такт.

И вот тут начинаются различия. Intel и AMD изначально делали процессор для ноутбуков и ПК, где основной приоритет — это производительность. Самым эффективным способом ее нарастить является увеличение частоты. Именно по этой причине они просто не могут позволить себе иметь очень широкий конвейер и огромный кеш L1.

Да, небольшие шажки в этом направлении делаются, Zen 3 уже умеет исполнять от 4 до 8 микроопераций за такт (6 в среднем), но нужно понимать что это чип, который создавался для работы на высоких частотах (около 5 ГГц).

Apple пошла по другому пути и уже больше 8 лет по нему движется. Ее чип изначально создавался для мобильных устройств, где важнее всего — это низкое энергопотребление. Самый эффективный способ этого добиться — это понизить частоту. В итоге единственный способ увеличения производительности — это расширение конвейера, чем, собственно, Apple успешно и занимается.

Но тут есть маленький нюанс. Сложная логика не может работать на высокой частоте. По этой причине частоты мобильных процессоров ограничены не только энергопотреблением, но и вполне себе физическими ограничениями. Да, можно увеличить напряжение и таким образом немного ускорить переключение и частоты, но тогда у нас сильно вырастет энергопотребление. Зависимость там квадратическая.

В дальнейшем AMD и Intel будут фокусироваться на увеличении IPC при сохранении частот, а Apple на увеличении частот при сохранении IPC.

И у Apple, и у AMD, и у Intel уже достаточно устоявшейся архитектуры и ожидать от них прироста больше 15-20% от генерации к генерации не стоит. Да и эти самые 20% — это мало ли не за гранью фантастики.
У 5980HS TDP заявлен на уровне 35 Вт и он действительно потребляет эту мощность после 10 минут. До этого — 42 Вт.

Да, простите, не разбирался в постфиксах всех версий. Всего 42 (или 80, см. дальше) vs. 15.


При этом многоядерная производительность у этого чипа гораздо выше чем у М1 и сравнивать их не совсем корректно.

Их не очень корректно сравнивать потому, что количество ядер у них разное. При прочих равных, всегда можно уменьшить частоту и "взять числом" — зависимость, как вы помните, квадратичная. А равных тут даже близко не наблюдается.


Если взять Tiger Lake, то тестов тоже довольно много. Вот достаточно большое сравнение: openbenchmarking.org/result/2012250-FI-2012032FI40 Самое забавное, что в большинстве тестов 1165G7 оказывается быстрее.

Эти "тесты" даже тут на хабре уже разбирали с десяток раз. Там полностью отсутствует какая-либо методология, на M1 почти всё запускается через Rosetta, даже там, где не отмечено, множество экзотических приложений с ручными оптимизациями под AVX и так далее.
Прошу вас не ссылаться больше туда.


Начнем с того, что декодер в принципе не является узким местом современного процессора.

Пока ваш целевой IPC не начинает превышать количество декодеров, или частые бранчи не вымывают uops-кэш. И вот тут внезапно пропускная способность декодеров оказывается решающей. Насколько это влияет на итоговую производительность — думаю, тема для хорошей научной работы.


Да, можно расширить ширину блоков переименования, количества планировщиков, а также исполнительных блоков, но вот чип в итоге получится не только большим по площади, но и не сможет работать на частоте выше условных 2 ГГц просто потому что все два десятка логических элементов не будут успевать переключиться в такт.

У нас уже перед глазами рабочий пример на 3.2 ГГц.


И вот тут начинаются различия. Intel и AMD изначально делали процессор для ноутбуков и ПК, где основной приоритет — это производительность.

Основной приоритет везде очень давно производительность на ватт. Никому не сдался одноядерный процессор на 6 ГГц и 300 Вт, мы их видели уже 15 лет назад.


Самым эффективным способом ее нарастить является увеличение частоты.

Которого уже много лет практически не происходит. Intel и AMD так же давно наращивают IPC для увеличения производительности.


В дальнейшем AMD и Intel будут фокусироваться на увеличении IPC при сохранении частот, а Apple на увеличении частот при сохранении IPC.

Ваша логика ломается когда вы безосновательно отказываете Apple в увеличении IPC, а Intel/AMD добродушно разрешаете.
Apple уже несколько лет выдают бранч-предикторы на голову выше, ренейминг за гранью воображения инженеров Intel, гигантский ROB и т.д.
И вот только сейчас взялись по-серьёзному за десктопные чипы, где, скорее всего, будет много разных технологий, которые просто нерационально было внедрять для телефонов.


Что касается комментариев инженера, то вы совершенно не поняли что он вам пытался объяснить.

Я-то его отлично понял, вы могли не пересказывать своими словами.
Я просто не стал принимать все его предсказания всерьёз, после его же признаний, что инженерам Intel даже такое ядро собрать не под силу.

Фактическое энергопотребление 5980HS составляет 35 Вт на длительных нагрузках и 42 Вт на краткосрочных с пиком в 56 Вт первые секунды: www.anandtech.com/show/16446/amd-ryzen-9-5980hs-cezanne-review-ryzen-5000-mobile-tested/4

Что касается частот, то у Apple сейчас это 3.2 ГГц, а у AMD и Intel около 5 ГГц.

С декодерами тоже все понятно, если, конечно, вы внимательно читали сообщения инженера Intel, на которого ссылаетесь.

Что касается точности предсказания переходов, то в Zen 3 это в среднем 98-99%, у Intel на полпроцента хуже (9xxx серия), у M1 на полпроцента лучше. Андрей (тот который редактор Anandtech) у себя в Твиттере выкладывал огромные таблицы с процентом промахов.

Цифры вполне себе сравнимые и говорить о каком-то существенном преимуществе не приходится.

Что касается производительности на ватт, то это актуально лишь для мобильных устройств и всяких ультрапортативных ноутбуков. Многие 15" ноутбуки, не говоря уже о 16 и 17" моделях большую часть времени и так подключены к сети.

Да, приятно, когда ноутбук или компьютер работает тише, но для многих основной приоритет — это все же производительность.

В общем, с М1 получилось очень много хайпа, покупать устройство с ним для чего-то серьезного пока рано.
Фактическое энергопотребление 5980HS составляет 35 Вт на длительных нагрузках и 42 Вт на краткосрочных с пиком в 56 Вт первые секунды: www.anandtech.com/show/16446/amd-ryzen-9-5980hs-cezanne-review-ryzen-5000-mobile-tested/4

Да, и в этом конкретном профиле там ничего, кроме Geekbench с M1 не сравнивается на многопотоке. И выигрыш AMD довольно смешон для двукратного перевеса по ядрам, даже если забыть про потребление.


Что касается точности предсказания переходов, то в Zen 3 это в среднем 98-99%, у Intel на полпроцента хуже (9xxx серия), у M1 на полпроцента лучше. Андрей (тот который редактор Anandtech) у себя в Твиттере выкладывал огромные таблицы с процентом промахов.

Да, я про них и говорил [1] [2], только память на цифры вас обманывает.
И замеры там A14, и только пара тестов, которые, в свою очередь, отличаются от таблицы 5900X/9900K. Полная таблица есть только для древнего A12, и там, к сожалению, тесты тоже не те же, что для Zen 3.
На тестах A12/9900K усреднённый результат [1.924% vs. 2.508%].
Для 5900X/9900K — [2.440% vs. 2.940%]
А14 от A12 на 2 тестах ещё прилично выигрывает [2.273% vs. 3.077%] и [3.657% vs. 4.055%]. Остальное нельзя впрямую сравнивать — код разный.
Если я где-то пропустил таблицу именно с M1, пришлите ссылку, пожалуйста, буду признателен.


Цифры вполне себе сравнимые и говорить о каком-то существенном преимуществе не приходится.

Полпроцента сверх 99% — это же в два раза реже промахи получается :)


Что касается производительности на ватт, то это актуально лишь для мобильных устройств и всяких ультрапортативных ноутбуков. Многие 15" ноутбуки, не говоря уже о 16 и 17" моделях большую часть времени и так подключены к сети.

Вы чего, это вообще везде актуально. Просто в десктопах потолок чуть выше, а проблемы ровно те же.
Если бы энергопотребление было неважно, мы бы уже 15 лет назад сидели бы за 6 ГГц P4. Или по 16 ядер сейчас на максимальном турбо-бусте держали. И ещё много всего делали бы, но не можем.


Да, приятно, когда ноутбук или компьютер работает тише, но для многих основной приоритет — это все же производительность.

Я вот не понимаю, для вас производительность — это или топ в Cinebench MT или ничего? Тогда текущий M1 просто не для вас, подождите несколько месяцев.
В формфакторе MB Air, M1 вообще никаких конкурентов сейчас не имеет по производительности и автономности.


В общем, с М1 получилось очень много хайпа, покупать устройство с ним для чего-то серьезного пока рано.

Пока что он не устраивает только вас, заочно.
Все мои знакомые (кроме считающих сеточки на eGPU) в полнейшем восторге от M1 и продают свои топовые MBP 16 на i7/i9, переходя на Air.

Geekbench в силу своих особенностей плохо масштабируется на x86. Гораздо более показательным в данном случае является Cinebench R23, где 5980HS набирает 12629 баллов против 7762 у M1 по данным Notebookcheck. Аналогичная картина и в 7-Zip, и в Blender. Ссылки выше.

Что касается предсказаний переходов, то вы подтвердили мои слова. Разница там минимальна и в среднем составляет все те же пол процента.

По поводу производительности на ватт — это актуально в первую очередь для мобильных устройств, которые в принципе часто работают от батареи. Для более крупных ноутбуков и ПК производительность все же гораздо важнее. Условный 3995WX может потреблять до 280W, современные видеокарты вроде 3090 столько же.

И что? Это кого-то беспокоит? Если система делает работу в 10 раз быстрее чем условный М1, то никого не будет беспокоить что она при этом потребляет условные 400-600 Вт. Стоимость электричества не соизмерима со стоимостью времени специалиста.

Опять же. Я рассматриваю исключительно профессиональное применение. В играх ситуация схожая. Если взять обычное офисное применение с браузингом и офисом, то тут вообще без разницы что М1, что условный Tiger Lake.

Что касается ваших знакомых, то какие у них есть варианты? Apple пять лет выпускала устройства с неудачной клавиатурой и основная масса пользователей все равно их покупала.

Аналогичная история с тачбаром. Сейчас Apple от него собирается отказываться. В скором времени мы узнаем от блоггеров какая же это была неудобная штука и как правильно Apple сделала.
Geekbench в силу своих особенностей плохо масштабируется на x86.

Каких именно особенностей? Просветите, а то общественность не в курсе.


Гораздо более показательным в данном случае является Cinebench R23

Тут я могу парировать тем, что движок Cinema 4D состоит из множества алгоритмов, которые много лет разрабатывали под x86, а на портирование на ARM у них было от силы несколько месяцев. И, судя по другим тестам, вроде SPEC, Cinebench сильно неоптимально работает на M1 в сравнении с x86 — это хорошо видно в однопоточном тесте.
Но это исключительно моё мнение, можно не принимать его за аргумент.


где 5980HS набирает 12629 баллов против 7762 у M1 по данным Notebookcheck. Аналогичная картина и в 7-Zip, и в Blender. Ссылки выше.

Ок, т.е. чуть хуже, чем можно было ожидать от двойного количества ядер.


Что касается предсказаний переходов, то вы подтвердили мои слова. Разница там минимальна и в среднем составляет все те же пол процента.

Суммарно это означает на 20% меньше промахов, которые относительно дороги.


По поводу производительности на ватт — это актуально в первую очередь для мобильных устройств, которые в принципе часто работают от батареи. Для более крупных ноутбуков и ПК производительность все же гораздо важнее. Условный 3995WX может потреблять до 280W, современные видеокарты вроде 3090 столько же.

Вы не слышите, что я говорю. Эти 280 Вт — потолок. Он выше, чем в телефоне/ноутбуке, но точно так же ограничивает производительность сверху. Вы не можете завести все эти 64 ядра на полной частоте, не говоря уже о бусте.


И что? Это кого-то беспокоит? Если система делает работу в 10 раз быстрее чем условный М1, то никого не будет беспокоить что она при этом потребляет условные 400-600 Вт. Стоимость электричества не соизмерима со стоимостью времени специалиста.

Я скорее покручу у виска, увидев человека, всерьёз запускающего на M1 задачу, которая требует, а главное может утилизировать 64 ядра с 128 потоками.
M1 — это не чип для рабочей станции, и сравнивать его с тредриперами как минимум странно. Apple не собиралась одним чипом покрыть всю индустрию вычислений.


Если взять обычное офисное применение с браузингом и офисом, то тут вообще без разницы что М1, что условный Tiger Lake.

Для обычного офисного применения есть разница во времени автономной работы и комфорте от температуры и вентиляторов.


Что касается ваших знакомых, то какие у них есть варианты?

Есть, конечно. Весь остальной рынок.
Сама macOS требуется для работы очень немногим, для большинства это просто вопрос комфорта. Если условно AMD выпустит чип превосходящий M1 на голову и по производительности и по потреблению, многие так же радостно побегут продавать макбуки.

Сравнимые с Cinebench результаты были получены и в других тестах, включая 7-Zip и Blender. 5980HS примерно в 1.7 раза быстрее чем М1. Ну и не стоит также забывать, что в М1 все же восемь одновременно работающих физических ядер.

Что касается энергопотребления, то для ПК 280 Вт — это не так много. В 15-17" ноутбуках с 5980HS и 3070 может достигать 150-200 Вт. Это не так много для устройств, которые в основном используются от сети.

Что касается Apple и «легко перебегут на AMD», то нет. Покупатели зачастую покупают не только MacBook, но и iPhone, и Apple Watch, и AirPods, и ещё кучу подписок в придачу. Они не смогут просто так взять и перейти на Windows.

В итоге они так или иначе вынуждены и дальше покупать технику Apple. Чтобы этот процесс был не так дискомфортен, некоторые утешают себя мыслю, что отсутствие полноценных USB портов и картридера — это нормально, тачбар, наверное, нужен раз его добавили, а также 200$ за дополнительные 8 Гб оперативки и $200 за дополнительные 256 Гб SSD — это нормально.
Ну и не стоит также забывать, что в М1 все же восемь одновременно работающих физических ядер.

Из них только 4 полноценных. Производительность маленьких ядер практически идентична второму SMT потоку в AMD процессорах — 20-25% от полного ядра, в идеальном случае.


Это не так много для устройств, которые в основном используются от сети.

И это всё ещё потолок, ограничивающий максимальную производительность, в любом форм-факторе.


Они не смогут просто так взять и перейти на Windows.

Ради производительности и автономности можно и потерпеть без приятных фишек. Особенно для рабочего компьютера.


Чтобы этот процесс был не так дискомфортен, некоторые утешают себя мыслю, что отсутствие полноценных USB портов и картридера — это нормально, тачбар, наверное, нужен раз его добавили, а также 200$ за дополнительные 8 Гб оперативки и $200 за дополнительные 256 Гб SSD — это нормально.

Не надо так.
Порты USB там самые полноценные, что есть на рынке — USB4/Thunderbolt4.
Тачбар — мелкое неудобство для одних, приятная фишка для других.

Гораздо более показательным в данном случае является Cinebench R23,
cinebench тупо математику гоняет, это лишь один из видов нагрузок современного ПК, очень далекий от нагрузок среднего пользователя, и абсолютно не актуальный для профессионалов (потому что они математику считают на GPU). Geekbench хотя бы пытается тестировать пользовательские юзкейсы (браузинг, компиляция, архивация и пр.)
Сравнимые с Cinebench результаты были получены и в других тестах, включая 7-Zip и Blender
blender тоже чисто математический бенчмарк
В Geekbench есть такие «нужные» тесты как Navigation (на ноутбуке без GPS, ага), Face Detection, Horizon Detection, Structure from Motion, Speech Recognition и AES-XTS.

Это именно то, чем занимается средний пользователь на ноутбуке.