Как стать автором
Обновить

Комментарии 331

А если чуть-чуть накинуть памяти? Например, если нужно 18Гб памяти.
Время выполнения на celeron-300 24Гб памяти — 2 дня 30 минут.
Время выполнения на m1 — бесконечность.
(чем меньше, тем лучше)

НЛО прилетело и опубликовало эту надпись здесь
Давайте накинем до 1ТБ сразу (:
А вообще, если серьезно — ну, подбирайте железо под задачи. Надо много памяти — это не М1. Может, какой-то М2 или М3. А может и вообще только кластер x86.

Я к тому, что эппл срезала угол, который считалось всегда плохо срезать — расширяемая память. Более того, срезала довольно низенько (я как раз себе домашнюю машину подбираю и в глубоких сомнениях — 1x32 или 2x16 в свете 4х слотов и возможного апдейта в будущем...).

Аналогично. Терабайт терабайтом (кстати, пром кластера у нас близки к этому уже), а вот ограничение в 16G очень сильное. Для современного ноута, где хочется поделать что-то еще помимо чтения новостей в вебе.
Может быть, сравнение будет не точным, но новые маки с m1 выглядят как Oculus DK1/2. Это устройства, недостаточно мощные, чтобы люди, которые используют компьютер для специфичной работы, начали на них переходить. А вот разработчики, которые делают софт для этих людей, уже могут легко купить железо для тестирования на новой архитектуре. И эплу не надо раздавать этим разработчикам девелоперское железо.

Не очень подходящий для хабра пример, но сейчас профессиональные аудиокарты типа Universal Audio не совместимы с новой архитектурой, но, думаю, активная работа по написанию драйверов уже идет, в том числе благодаря доступности железа.

В итоге, когда выйдет действительно мощное железо на новой архитектуре (>16gb RAM), какой-то специфичный софт уже станет доступен.

Ну а людям, которым нужен только браузер и что-то стандартное, и не нужны сотни ресурсов, уже хорошо.

Не следил и не изучал, насколько удачным был переход с прошлой архитектуры на intel, но текущий подход эпл к смене архитектуры выглядит наиболее логичным. При этом как пользователю, выбирающему себе компьютер для работы (и склоняющемуся к маку), в краткосрочной перспективе эпл усложнили мне жизнь.

Ну вот как раз разработчикам 16GB мало.

Смотря каким разработчикам и чего. Я вот добавил 16 Гб к имеющимся 16 только когда начал локально запускать кластеры на десятки сервисов и пяток СУБД.

У меня только андроид студия 8 гигов отжирает. Плюс браузеры, плюс эмуляторы девайсов.
плюс эмуляторы девайсов.
с эмуляторами андроид девайсов наверняка станет получше — всё-таки apple silicon это ARM.
Ну андроид эмуляторы давно уже под x86 собраны. И потребление памяти от смены архитектуры не уменьшится. Да и в сторону маков что под армом что не под ним я не смотрю, если и буду брать ноут — то синкпад.

А почему синкпад, а не xps?

Более надежный, с охлаждением должно быть получше (нормальный кирпичик а не «ультратонкий»), приятнее дизайн, удобнее клавиатура. В итоге заказал себе thinkpad t15p на днях, едет ко мне. Скорее всего сразу докину памяти до 32, и установлю второй ssd на террабайт или два.

Спасибо)
Толстенный такой)
Дизайн — субьективно, понимаю. О клаве xps ничего плохого не слышал.

Со стрелками печально. И кнопка включения неудачно расположена.
О клаве xps ничего плохого не слышал.

Она какая-то неполноценная. На Thinkpad t15p клавиатура занимает всё доступное ей место, даже цифровой блок влез. На XPS 15 же по 3-4 см слева и справа пустого места, как будто взяли клаву от 10-12" нетбука. В итоге PgUp/PgDown/Home/End — только через Fn. Ну и стрелки, к которым невозможно привыкнуть. Короче, XPS сразу в помойку, не глядя — это не ноутбук для программиста.

даже цифровой блок влез

оу. А зачем он? Без этого блока у вас клавиатура используется симметрично относительно центра экрана. С же ним руки будут лежать больше в левой плоскости.


На XPS 15 же по 3-4 см слева и справа пустого места, как будто взяли клаву от 10-12" нетбука. В итоге PgUp/PgDown/Home/End — только через Fn

Как на маке (:

Не, ну есть же компромиссные варианты, например, MSI PS63 15" — дополнительный ряд справа для клавиш навигации. Раньше ASUS примерно так же клавиши располагал.


Как на маке (:

И? Там вся экосистема под такую раскладку заточена.

даже цифровой блок влез

оу. А зачем он?

Цифры обычно с него и набираю если надо с ними поработать. На ПК частенько пользуюсь. На прошлом ноуте тоже использовал. На этом скорее всего тоже буду.

CVC код и телефон :)

Ну не только. Раньше например под 1с кодил, при отладке тоже много цифр вводить приходилось. Да и вообще любые числа если это не 1-2 цифры ввожу с нампада.
В итоге PgUp/PgDown/Home/End — только через Fn
тем не менее уж лучше через fn+стрелки, чем когда backspace/delete/home/end в радиусе миссклика от кнопки выключения. Лишь бы сами стрелки были удобными (вот прям не нравится мне вверх/вниз половинчатой высоты при полной высоте вправо/влево).

Что до нампада — никогда не пользовался им на ноуте и имо лучше без него, т.к. как уже отметили выше, положение рук съезжает из центра влево, зачастую вместе с тачпадом, который оказывается слева, но используется правой рукой.

В общем, на вкус и цвет. Обзорщики клавиатуру XPS обычно хвалят.
И? Там вся экосистема под такую раскладку заточена.
сомнительный аргумент. Вам всё равно как программисту нужны кнопки а-ля «переход в начало/конец строки» и иже с ними.
тем не менее уж лучше через fn+стрелки, чем когда backspace/delete/home/end в радиусе миссклика от кнопки выключения.

Эта проблема решается нормальной реализацией кнопки выключения, а не удалением "ненужных" кнопок.


Что до нампада — никогда не пользовался им на ноуте и имо лучше без него

Согласен. Но без клавиш навигации ещё хуже.

Согласен. Но без клавиш навигации ещё хуже.
скажем так: меня не особо смущало fn+стрелочки вместо отдельных кнопок home/end, прожимать привык быстро. Другое дело что в macos home/end имеют несколько иной смысл и кидают не в начало/конец строки, а в начало/конец текста. В IDE'шке настроил конечно же, в других приложухах до сих пор не могу привыкнуть к такому поведению

Shift+Ctrl+Fn+End как-то не очень удобно нажимать

НЛО прилетело и опубликовало эту надпись здесь
Поставить плюс не могу, но соглашусь.

Может быть, это у меня кривые руки и все неудачно совпало, но регулярно обновляемый Firefox на Ubuntu постоянно вылазил за пределелы 16 GB RAM, что бы я там ни делал в about:config. При этом было запущено пара не очень тяжелых контейнеров и три проекта в PyCharm.
Дурная привычка говорить, что это надо всем. Это не так.
Вопрос в том что вы делаете и как запускаете.
Мой сценарий — это несколько проектов в IDEA, несколько микросервисов локально или несколько контейнеров или UI проекты на react (самое тяжелая часть, хотя казалось бы).
Остальное все в облаке. Мне нет нужды поднимать большой кластер локально.

Дурная, да. Но я и не сказал "всем разработчикам". Из моих знакомых разработчиков большинство в 16GB уже упирались, кто-то добавил памяти, кто-то нет. В целом проблема в том, что проекты только добавляются, равно как и их требования. Всё в облаке гонять не получается, уж точно не на любом проекте. Иногда нужны виртуалки. Иногда поднять тяжёлые сервисы. Иногда кучку браузеров. Смотря чем разработчик занимается и в какой области. Но в целом, если смотреть в исторической перспективе, требования к памяти на машине разработчика только растут, причём довольно быстро. И они всегда были выше, чем к машине обычного юзера, раза в полтора-два где-то минимум. Соответственно я к этому отношусь как к тезису про бэкапы "те, кто не делают, и те, кто УЖЕ делают" — "те, кому 16GB пока ещё хватает, и те, кому УЖЕ не хватает", вот и всё.


Статья пытается оценивать применимость для разработчиков — я именно с этой точки зрения и комментировал, что ограничение в 16GB для этой целевой аудитории очень некстати. А то, что бывают разработчики, которым 16GB ПОКА хватает — я и не спорю. Просто высока вероятность, что скоро и они упрутся в 16GB, и вот тогда этот M1 сильно их огорчит.

Фаза "16 Гб уже не хватает" не монолитна, есть градации от "не хватает, но терпимо, почти не влияет на производительность и/или мотивацию разработчика" через "сильно не хватает, производительность и/или мотивация разработчика заметно падает" до "заметную часть рабочих задач выполнить невозможно — памяти на билд не хватает, например".


И длина фазы "терпимо" и способ выхода из неё сильно зависят от двух вещей: своя техника или работодатель/заказчик предоставляет и общее мировоззрение по вопросу: можно ли закрывать глаза на неудобства в работе, если их можно избежать регулярной тратой относительно небольших средств (скажем, не более 5% годового дохода) и/или сменой работодателя/заказчика.

Это всё корректно если вырвать фразу из контекста. А у нас тут вполне конкретный контекст: разработчик думает перейти на M1. Это автоматически подразумевает, что он хочет выжать максимальную скорость, т.е. получить максимальный комфорт при разработке. В этой ситуации фаза "не хватает, но терпимо" означает потерю того комфорта, ради которого затевается переход. Поэтому в данном контексте длина этой фазы примерно равна нулю и она сразу переходит в следующую "работать стало некомфортно, нужно обновить железо на более мощное". :)

16Гб памяти не однозначно свидетельствует что уже не хватает, тем более что докера или кубера под М1 пока нет.


Мне вот на текущем проекте должно хватать, если нет особых потребностей у АРМ, типа Хром жрёт в 2 раза больше памяти. На прошлом не хватало 16, но терпимо, если не держать сотню вкладок и 5 IDE открытыми постоянно. Хотя всё равно добавил на личный ноут до 32, когда карантин начался.

Хотя всё равно добавил на личный ноут до 32, когда карантин начался.

Вот я именно об этом. И так делает большинство. И как, лично у Вас есть желание даунгреднуться до 16GB?


P.S. Лично я поставил на себе эксперимент когда упёрся в 16GB и поставил 24GB. Не экономии ради, а просто из любопытства — упрусь/не упрусь. За последние пару лет упёрся только один раз — у меня Gentoo, и он непотребно много жрал памяти при сборке чего-то, вроде chromium. (Решилось сносом chromium, потому что он не только много памяти жрал, но и компилировался уже около 12 часов, а это перебор, мне комп не для того нужен, чтобы хромиум компилировать круглосуточно.) В остальном 24GB лично мне пока вполне хватает, и на виртуалки, и на контейнеры, и на всё остальное.

Я в свой комп воткнул 16 гигов памяти ещё в 2011 году.
Нехватку памяти начал ощущать где-то 2-3 года назад, когда для того, чтобы поиграть в GTA V, приходилось закрывать браузер, ну или задействовать своп.


И это я ещё не затронул рабочие моменты: виртуалочки, IDE, машинное обучение (обучение небольшой нейросетки вообще 10+ гигов может отъесть). Да даже сраный Teams — уже гиг памяти сразу после запуска.


Прямо сейчас эта проблема нивелируется свопом на SSD, но через пару лет потребление памяти софтом будет ещё выше. Короче, в новый комп я бы пихал минимум 32 гига, а лучше 64.

И как, лично у Вас есть желание даунгреднуться до 16GB?

С тех пор я сменил проект и не запускаю локально кластеры. Правда стал запускать Телеграм :) Посмотрел использование прямо сейчас: 20 Гб занято, из них Хромом около 10. Наверное замечу даунгрейд, даже проверю на днях, если найду время новый рабочий ноут засетапить

Вчера кстати запустил docker-Compose на пяток сервисов. Отлично заработал. Ожидал что буду до до марта ждать или неделю с бубном плясать

ARM образы или x86 через эмулятор?

Дурно, это, когда нет нигде в заданной экосистеме. Очень трудно найти даже PC ноут с 32 с адекватной клавиатурой. Много НР, которые в личном спорном списке, но в остальном мало ноутов, очень. И можно назвать клаву штукой субъективной, но это один из наших, кодерских, важных инструментов.

Мне не хватило только один раз, когда пытался подебужить 400К строк генерированного Го-кода. А так норм: GoLand, пара базок, вроде всё более-менее, в своп не выходил при нескольких открытых проектах (что само по себе редкость, хочу заметить, обычно только один проект — просто цепляюсь к дев-стенду). Это на десктопе со стареньким i5 4670K.


А недавно прикупил Макбук про этот, на М1. На самом деле потом куплю машинку помощнее, с микролед (или минилед, смотря что у них будет) с большим объёмом памяти, всё же 16Гб всё равно впритык сейчас.


Ну вот. Штука приятная, мне нравится. Возможность запускать ипадос приложения один раз прямо выручила, производительность, разумеется, очень хорошая — EAP Intellij Ultimate ворочается заметно шустрее чем на старом десктопе. Там, где на нём приходилось ждать, например, переиндексации исходников после перегенерации кода сейчас происходит практически мгновенно. И он очень тихий. Всякий веб-электроновый шлак хоть и медленее натива или иос/ипадос приложений, но всё же заметно шустрее чем на старом линупс-десктопе. Компиляция побыстрее, хотя и не очень разница не такая большая как в вебе.


В общем, неплохая машинка. Когда будут с большим объёмом памяти всё вообще будет шоколадно. Кроме х86_64 приложений в докере через qemu, разумеется )
Хотя, учитывая самый частый юзкейс для разработчиков в использовании докера — гонять там базки, всё не так уж плохо: больших объёмов там нет, просто разработка, отладка. И образы с популярным базками собранными для арм64 так или иначе появятся, поэтому вообще терпимо.

Хотя, учитывая самый частый юзкейс для разработчиков в использовании докера — гонять там базки, всё не так уж плохо

А сам разрабатываемый код, тесты? Хотя, если CI на целевую платформу настроена и базовые образы стэка для ARM есть, то костыльками можно сделать, чтобы локально под МакОсь арм-образы были, когда будет докер под неё.

Так они и выпустили только модели начального уровня, не претендующие на очень высокую производительность. Посмотрим, что будет с памятью в MacBook Pro 16, iMac, Mac Pro.
Это не Эппл срезал угол, в современных тонких ноутбуках уже давно впаиваемые процессор и память, потому что тупо нет места в высоту под DIMM-сокет. Хотя, начиная кажется с 2017 года, они начали заливать герметиком чипы памяти, теперь их даже не перепаять…
НЛО прилетело и опубликовало эту надпись здесь

Это про личные или корпоративные?

НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь

Угу, частый кейс: "работники жалуются, что компы тормозят — как бы подешевле ускорить?" спрашивают у ИТ-директора, он калькулирует новые дешевые 200 штук, а ему "ок, бери, но учти, что это весь твой бюджет на год, сервера в следующем году впишешь"

НЛО прилетело и опубликовало эту надпись здесь
мне вот почему-то кажется, что там основной профит производительности как раз из-за интегрированной памяти
ну т.е. не верится в то, что просто архитектура ARM vs x86 настолько оптимальнее, т.к. на других-то ARM-ах существующих это не так
интересно, исследует ли кто-то эту гипотезу
ну и соответственно, если это вдруг правда — то ждём повторения «успеха» от других производителей
Странно, уже столько тестов, а все не верится. Apple сделали очень быстрые ядра и добавили им не менее быструю оперативку. Вот так оно и работает
Так вот и вопрос, за счёт чего быстрые-то вдруг? Чудес-то не бывает.

Суперскалярность, менее строгий доступ к памяти, 8-канальная память.

Осталось подождать, пока найдётся какая-нибудь фундаментальная проблема с безопасностью по типу spectre/meltdown, и костыльный фикс съест весь прирост в производительности.

НЛО прилетело и опубликовало эту надпись здесь

Так-то оно так, но достаточно один раз продемонстрировать подготовленную атаку на домашний компьютер, чтобы поднялся шум, и Apple была вынуждена применить фикс для всех.

Разумееся, она не является проблемой. Ну и что, что таб с малварной рекламой может прочитать куку от банк-клиента в соседнем табе.


… Не является проблемой.

НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь

Чтение по конкретному адресу. Показывается производительность, достаточная, чтобы спереть известное по известному месту.


Теперь возникает вопрос: а как мы узнаем "где известное"? Правильно, прочитав другое известное. Указатели и т.д. При том, что есть ASLR… Стоп, это же эппл. Может, у них и нету. В любом случае, ASLR ломали с помощью spectre какой-то там вариации, так что это не панацея. Вопрос за сколько хопов можно дойти до "вкусного" — это интересный вопрос для исследования.


Но большинство людей совершенно не удивятся, что у них какой-то из процессов браузера, вдруг, 100% cpu сожрал (и продолжил на другом сайте с продолжением малвари из той же баннерной сети).

ASLR есть с 10.5, kernel ASLR – с 10.8

Если есть возможность читать любую память то ничто не мешает просто ходить по указателям

Для этого нужно иметь возможность запустить вредоносный код на атакуемой системе. То есть пользователь должен, для начала, поставить себе на компьютер троян.


Есть потенциальный вектор атаки через выполнение JavaScript, но вот возможности читать любую память из него нет, существуют методы борьбы на уровне самого движка JS, поэтому я не верю в возможность стащить куку из браузера таким способом.

Вот вы не верите, а люди, которые патчи пишут, верят. И страдают.


Если совсем не верите, вот вам mlfa: noibrs noibpb nopti nospectre_v2 nospectre_v1 l1tf=off nospec_store_bypass_disable no_stf_barrier mds=off tsx=on tsx_async_abort=off mitigations=off


На ваш страх и риск.

Применил это к своей системе, прогнал тесты из своей статьи: https://habr.com/ru/post/532442/
Результаты оказались идентичными. Возможно, в каких-то сценариях они оказывают эффект, но эти сценарии уж очень редки.

Эм, вы используете его не так. Разница во времени выполнения системных вызовов. Если у вас львиная работа в userspace с агрессивным кешированием, то разницы не будет. Если же у вас сплошные системные вызовы, разница будет очень ощутимой.


Худшее, что я видел в полу-синтетике (это была синтетика, но не для спектре а для другого бенчмарка) — около 20%. При использовании реального железа стало медленее и влияние упало куда-то до 10%.


(Речь про блочное IO).

НЛО прилетело и опубликовало эту надпись здесь

Оно метлдаун отключает, или только будущие затычки?

НЛО прилетело и опубликовало эту надпись здесь
Для начала 8 декодеров команд против 4-х у Intel/AMD, т.е. количество команд за такт существенно больше.
т.к. на других-то ARM-ах существующих это не так

Так ARM — это просто система команд, а реализация может быть различной.

мне вот почему-то кажется, что там основной профит производительности как раз из-за интегрированной памяти

По какой причине вам так кажется? Латентность там такая же как и у Интел.
Память просто сидит рядом с кристаллом как и в любом смартфоне (только сбоку, а не сверху).

ну т.е. не верится в то, что просто архитектура ARM vs x86 настолько оптимальнее, т.к. на других-то ARM-ах существующих это не так

Не архитектура ARM, а МИКРОархитектура Apple.
На процессорах Apple это уже несколько лет так. Просто даже если результаты измерений скептикам под нос совали, никто не верил.
А по тестам всё закономерно. Чем сложнее программа, тем больше преимущество у Apple.
Если там дубовые циклы на AVX или циклы с зависимостями, то х86 ядра вытянут.

интересно, исследует ли кто-то эту гипотезу

Вот свежий процессор Интел с такой же интегрированной памятью.
www.servethehome.com/intel-lakefield-hybrid-soc-detailed
Core i5-L16G7
browser.geekbench.com/v5/cpu/compare/5343056?baseline=5330395
Можете начинать исследовать =)

Так вот и вопрос, за счёт чего быстрые-то вдруг? Чудес-то не бывает.

За счёт сего:
www.anandtech.com/show/16226/apple-silicon-m1-a14-deep-dive/2
www.anandtech.com/show/16252/mac-mini-apple-m1-tested
По какой причине вам так кажется? Латентность там такая же как и у Интел.

Зато 8 каналов, а не 2.

Это философский вопрос — что лучше: 8х16 или 2х64.
У Snapdragon 8cx те же самые 8 каналов по 16-бит. Он вдруг стал лидером рейтингов? Конечно же нет.
В упомянутом мной Lakefield — 4х16. Поди, 5950X со своими двумя дрожит от страха!

Пытаться незначительной разницей в конфиге памяти объяснить большое преимущество по производительности (и многократное по perf/w), это как говорить, что Феррари быстро едет потому что она красная =)

Intel-ы сливают Zen3, имея преимущество в виде монолитности и низкой латентности.
Память — это лишь один из факторов.

Интересно одно — я ссылки для кого постил?

Snapdragon 8cx имеет достаточно неплохую производительность

«Неплохую» и топовую это разные вещи.
У меня есть и то и другое. Пиару Qualcomm верить не стоит.

8сх и M1 даже имеют одинаковую теоретическую ПСП — 68ГБ/с
Только вот чтобы раскрыть её, 8сх нужно все 8 ядер, а у M1 достаточно одного.
НЛО прилетело и опубликовало эту надпись здесь
А что кэш l3 отсутствует, зато l2 большой?

В довесок к 12+4МБ L2, там имеется 16 МБ системного кэша с которым работают все блоки SoC.

Думаю, в основном ты прав, так как промахи кэша в разы замедляют работу структур на указателях типа деревьев поиска, а однокристальная память должна иметь очень низкую латентность

Что значит «однокристальная память»?
На кристалле нет никакой памяти кроме кэша. Память на подложке.
должна иметь очень низкую латентность

Почему бы не перестать фантазировать и не поинтересоваться, а какая она на самом деле?

measuring 96ns at 128MB full random test depth, compared to 102ns on the A14.

Латентность такая же, или хуже, чем у Интел.
НЛО прилетело и опубликовало эту надпись здесь

Вспомнилось про бензопилу и суровых сибирских мужиков

НЛО прилетело и опубликовало эту надпись здесь

И это тоже впечатляет. Впрочем, ничто не мешает процессору Intel ограничить частоту и сделать андервольтинг. Производительность упадёт на 20-30%, зато энергопотребление снизится в разы. Я как-то забыл зарядку для своего ноутбука — в итоге 6 часов программирования в Rider обошлись мне в 60% аккумулятора без особого дискомфорта.

Ну, тут M1 бьёт интел и по производительностью, и по энергопотреблению одновременно, так что интел не может пожертвовать чем-то, чтобы улучшить свои позиции :) хотя, безусловно, тут речь о старых поколениях.

Нынешние мобильные интелы и в турбобусте-то своём ущербные и не очень быстрые, а вы предлагаете им андервольтиться и ограничивать частоту.

И да, «в разы» энергопотребление, конечно же, не снизится.

Как пользователь подобного процессора Intel, не соглашусь.
Суть в том, что для работы на повышенных частотах приходится сильно поднимать напряжение, а энергопотребление пропорционально квадрату напряжения. Вот и получается, что +20% к частоте обходится в +100% к энергопотреблению.

В начале статьи автор обещал реальные тесты в разработке, а в самой статье синтетика и полусинтетика. А как же производительность IDE? Индексация проекта? Отзывчивость интерфейса?
Хром с гуглдокс?
да согласен, ведь синтетика синтетикой, а повседневные задачи надо выполнять, и чтобы IDE не раздражало

Один обзорщик говорил что запуск приложений медленнее на M1

Если «родные приложения», то быстрее. А через Розетту конечно медленно.

Первый запуск через Розетту — да. А последующие, говорят, даже быстрее.

Если привык работать в стиле: после ребута открыл всё нужное для работы и месяцами не закрываешь, то какая разница...

я сосредоточился на тестах реальных задач разработки

И вместе с тем вообще все бенчмарки кроме последнего — это синтетика для серверных задач (который с огромной вероятностью будет x86_64)

Мне кажется секрет в том что по сути «десктопное ядро» запихнули в мобильные устройства, снабдив быстрой памятью. 5нм поспособствовали как снижением энергопотребления, так и большей плотностью. Вопрос теперь что будет на десктопах если учесть что пока еще не было массовых arm с частотой больше ~3ггц. Вполне может получиться что решение масштабируется только вширь через наращивание ядер и никакой революции не случится.
Райзену 3900x уже больше года, было бы актуальнее сравнить с чем-то на zen3. Да и у Интела скоро новое поколение выходит.

Так никто и не скрывал, что ядро уровня десктопов. Это 2013 год :) Именно тогда начался переезд на 64 бита.
image
Но уровень дестктопов — это не десктопное ядро. По энергоэффективности у M1 вообще нет равных.
Райзену 3900x уже больше года, было бы актуальнее сравнить с чем-то на zen3. Да и у Интела скоро новое поколение выходит.
ну нет у человека zen3, что поделать. Так то 3900X всё еще в совершенно другой категории, это же десктопный проц.
никого не смущает почему во всех тестах
Air с пассивным охлаждением и 8гб памяти БЫСТРЕЕ чем
Mini с активным и 16гб?
Может бэнчи кривые, на гитхабе есть тесты сборок iOS проектов, там mini всегда на 10% бежит быстрее air.
что как раз логично.

а вот доверять статье где всё наоборот — что-то сразу не хочется.
Может бэнчи кривые, на гитхабе есть тесты сборок iOS проектов, там mini всегда на 10% бежит быстрее air.
ну вообще нет, обычно mini и air бегут наравне в рамках погрешности (я думаю она как раз здесь и влияет), кроме стресс тестов под продолжительной нагрузкой, там air может просесть процентов на 15.
Я просто судил по этим данным, сгруппировал по макам:
Mac mini 2020 16 GB (Apple M1 8-core) — 116 seconds
Mac mini 2020 16 GB (Apple M1 8-core) — 121 seconds
Mac mini 2020 8 GB (Apple M1 8-core) — 131 seconds

MacBook Pro 13" 2020 16 GB (Apple M1 8-core) — 119 seconds
MacBook Pro 13" 2020 8 GB (Apple M1 8-core) — 121 seconds

MacBook Air 13" 2020 16 GB (Apple M1 8c (8c GPU)) — 128 seconds
MacBook Air 13" 2020 8 GB (Apple M1 8c (7c GPU)) — 137 seconds
MacBook Air 13" 2020 8 GB (Apple M1 8c (7c GPU)) — 134 seconds
MacBook Air 13" 2020 8 GB (Apple M1 8c (7c GPU)) — 130 seconds

если грубо оценить, то миники немного быстрее именно по этим тестам )
Эйр может тротлить до 10%, а миник — нет.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
На счёт рейзера, он стоит дороже на 300 баксов, чем про 13, по этому считаю что сравнивать надо уже хотя бы с ним. В итоге 1) Хуже экран 2) намного хуже проц 3) кардинально хуже графика 4) про тачпад я думаю не надо обьяснять 5) автономность у про 13 на 40% лучше. Это на вскидку. Если автономность не нужна, можно нюк купить с таким же успехом, зачем деньги тратить на аккумулятор?

Иногда выручает таки возможность полчасика без света поработать.

НЛО прилетело и опубликовало эту надпись здесь
Не знаю с каких пор 40% автономности это немного, лол, это дичайшая цифра если взять во внимание намного лучше дисплей (я возьму качественнее дисплей вместо тонких рамок anytime) и производительность ЦП как минимум не хуже, а то и лучше (сайнбенч мультикор +45% гикбенч +35%). Гпу в среднем на 60+% лучше. Тачпад может конечно и сравним по размерам но виндовые тачпады и макбучные это разные лиги, не пробовали — проверьте. Ну и БЕЗ тачбара интереснее? Я хз, я лично не понимаю этого хейта который исходит от людей 99% которых его даже и не видели, я уверен. Я лично не пользовался по этому не буду говорить хорош ли он, но то что он ИНТЕРЕСНЕЕ, чем кнопочки это 100%. Единственные реальные минуса это порты, окей. Виртуализация винды уже есть. Расширение ссд не вижу смысла, 1 варик взять сразу много, 2 варик внешний ссд.
Не то что бы я против возможности, просто в современных реалиях это не так страшно как в 2015 году.

В общем, сейчас м1 единственный кто себе позволяет сочетать 3 не совместимых в других ноутах фактора: производительность БЕЗ ЗАРЯДОЧКИ (ку ку винда), автономность и уровень безшумности. На данный момент если вы не ультра ярый фанат винды (на что там наяривать?) выбор м1 просто максимально очевиден и с огромным перевесом имхо. Этому рейзеру надо стоить не дороже (лол) а дешевле баксов на 250-300 чтобы быть конкурентом. И это ещё более менее нормальная у него цена по меркам «элитных» виндовых ноутов, некоторые просто совсем смешные.
НЛО прилетело и опубликовало эту надпись здесь
На ноутбук чеке конкретно отдельного обзора прошки нету, но в статье про рейзер можно добавлять в некоторые графики его. Смысла сравнивать ноуты с разницей в 500-600 баксов вообще не вижу смысла.
1) Как уже сказал, сравните про 13 и рейзер а не эйр который стоит 1к. Если не можете найти, вот пожалуйста www.notebookcheck.net/Apple-MacBook-Pro-13-M1-with-more-than-20-hours-battery-runtime-but-no-performance-advantage-over-the-MacBook-Air.508338.0.html
Можете даже туда же добавить этот рейзер, навести на него и вуаля, 40%, окей обманул 38.

2) Производительность графики я оценивал в гфхбенче, ровно на той страничке что вы скинули. Их количество и разнообразие я думаю показательнее чем те 2 игры которые сейчас там есть.

3) С процессором я немного пропустил момент что у конкретно этого рейзера 1165g7 работает намного лучше чем средний, видимо за счёт дикого шума, тогда не на 40-45%, а всего на 15-20% ок. Под розеттой у м1 производительность падает на 20-25%, это тоже есть. Но в среднем это означает что м1 всё равно более перспективен чем 1165g7.

4) На счёт экрана то опять, зайдите на обзор рейзера и добавьте колонку pro 13 m1. Контрасты одинаковые, дельтаЕ я не в курсе что это но в одной строчке он лучше у бука, в другой у рейзера, но разрешение больше у бука и покрытие адобРГБ намного лучше у бука (88,3 против 65,9), отклик матрицы быстрее на 15-35%. Яркость одинаковая, но у мака равномернее.

Я не отцаю что проблемы есть, как говориться было бы странно если бы их небыло. Вопрос в том а действительно ли они на столько ужасные чтобы отказыватся от всех плюсов?

Более того, мы не можем быть уверены что рейзер менее проблемный потому что их явно меньше у людей чем девайсов на м1 и соответсвенно эти проблемы менее интересны/не так широко освещены.

ИДЕ от джетбрейнсов это вообще атас. Они сделаны тяпляп и жрут энергию даже ничего не делая, по этому я не удивлюсь если у них даже интерфейс тормозит. Но всё таки, если можете скиньте ссылку, желательно конечно, чтобы это уже была бетка 2020.3, которая под арм, я думаю её выпуск не так долго ждать.

И последний момент, я не читал обзор этого рейзера полностью, но работает ли он без зарядки так же как и с ней? Если да то это опять же очередное исключение и браво рейзер (правда шум, такое себе). Я думаю не секрет что большинство ультрабуков на винде, даже на амд работают сильно хуже без зарядки, а так как батарейки у них и так плохенькие то они сдыхают за 1-2 часа работы максимум. Макбуки живут сильно дольше и без зарядок всегда работают также как и с ней.
НЛО прилетело и опубликовало эту надпись здесь
Кароче ясно, надо всё по пункту выбивать. И 5 часов это не большая разница. Если интересно, смотрите прямое сравнение на ютубе, я скинул, если и там тоже всё что показывается не важно, то ок, нормальным людям будет важно)
Он работает от батареи 20 часов 23 минуты. Razer на 5 часов меньше. Да, разница есть, но ее трудно назвать большой.

20 часов это просмотр видео / айдл. Под нагрузкой ваш Razer сдуется в два раза быстрее. Уже заметно, да?
Или «неважно, ведь всегда можно найти розетку»?

в среднем под нагрузкой (29 дБ против 32.1 у Apple).

Что б такое сделать чтобы на Pro-шке кулер заработал? Молчит, зараза (или тише фонового шума работает).

но революцией это назвать язык не поворачивается

Ахах. Ну да, всего лишь перевели свои продукты на другую архитектуру и сделали проц, который утирает нос всем лидерам.
Всего-то пара пустяков ^_^

Сдаётся мне, если вам показать ноут в 10 раз быстрее и в 10 раз экономичнее, ничего кроме «разницу трудно назвать большой» и не услышишь.
НЛО прилетело и опубликовало эту надпись здесь
то есть если ноутбук не подходит конкретно вам, то он плохой? Причем по причинам, большинство из которых временные. Я вас удивлю наверно, но M1 маки не особо ориентированы на профессиональное использование, максимум — на разработку. Профессиональные машинки, с большим числом ядер CPU/GPU, выйдут позже.

А то, что даже M1 макбуки получились лучше своих более дорогих конкурентов в некоторых профессиональных задачах — всего лишь побочный эффект.

Не работает нормально внешний экран — опять же, ноутбук для меня бесполезен

Я верю, что у кого-то получается работать на 13.3" экранчике, но мне платят гораздо больше и ожидают большей эффективности.
А с каких пор внешние мониторы к макам не подключаются?
НЛО прилетело и опубликовало эту надпись здесь
Зашел на сайт авокода, там есть загрузка для макос, даже под розеттой не работает? Так и нету никакой ссылки, где джетбрейнсы лагают. Если виртуалбокса не будет — их выбор лол.
НЛО прилетело и опубликовало эту надпись здесь

И там же сказано, что достаточно выключить сглаживание шрифтов (библиотека сглаживания не портирована ещё). На экране Macbook или на внешнем 4k мониторе вполне комфортно работается без сглаживания.


Я сейчас использую этот EAP, и он работает на Mac Mini M1 ощутимо отзывчивей, чем на рабочем MBP15 2017 (i7-7700HQ) и домашнем десктопе (i5-6600k).

Да, это немного отличается от того что нам рассказывают всякие «независимые» видеоблоггеры.
видеоблоггеры просто говорят что продукты JB пока не адаптированы под M1. Обсуждение которое вы выложили про баги бета версии под M1. А такой лаг, который видно на видео, есть и на intel mac и, полагаю, даже под виндой.
Запустить Intellij IDEA?

Я занимюсь гемдевом — у меня нет таких сложных задач как запуск IDEA. Одни только лишь простые задачки с жалкими миллиардами Int/FMA операций в секунду.

Не работает нормально внешний экран — опять же, ноутбук для меня бесполезен. Не работает стабильно Bluetooth мышь или клавиатура?

Какой-то странный набор претензий. Вам точно нужен ноутбук?
У него уже есть монитор, клавиатура и тачпад. Что значит «не работает нормально»?

Не смог запуститься Docker? Зачем лично мне такой ноутбук?

Не смог?
www.docker.com/blog/download-and-try-the-tech-preview-of-docker-desktop-for-m1

Так не покупайте. Но говорить что это плохой ноут потому что он вам не подходит — глупо. А мне подходит и этот ноут лучший из существующих.

Я верю, что у кого-то получается работать на 13.3" экранчике, но мне платят гораздо больше и ожидают большей эффективности.

Ну так подключите к экрану. LOL

но частота обновления составляет всего 30 Гц.
Для работы это не приемлемо.

Вы уверены что это нерешаемая проблема?
Я вот уже несколько лет работаю с монитором 30Гц.
Не вижу почему это может быть неприемлемо.
А уж для каких-то разработок с докером вообще не понятно что вам может мешать.

Apple исправит и даже заменит бесполезный тачбар на нормальные клавиши

Для тачбарофобов есть Air.

Я уже молчу о том, что эмуляция x86 на системе с процессором ARM в разы медленнее. Производительность может быть ниже в 3-5 раз, что тоже неприемлемо.

На 20-30% медленнее натива, а не в разы. К тому же это быстрее чем натив х86 на каком-нибудь Skylake =)
И что же это за такой волшебный софт? Некий х86 JIT?
Но говорить что это плохой ноут потому что он вам не подходит — глупо.

Плохой-хороший — оценки, субъективные по определению. Вы вот сказали, что для вас лучший. Никто же с этим не спорит.

Ну и вы подтвердили мои слова. Спасибо, КО.

А есть показатели объективные — время работы, производительность, и т.п. И по многим из них, хвалёный выше Razer 13 (как альтернатива Макбуку) сильно отстаёт. Для Wintel платформы, конечно сойдёт, но не более.

В том-то и дело, что даже если по многим, то не по всем. И то, что важно для вас, например, автономность, для меня значащим фактором выбора становится только при равных важных для меня, типа стабильной работы докера и/или возможности установить линукс без танцев с бубнами. Типа если нет разницы в важных факторах, то пускай будет большая автономность, а если есть, то пускай будет её на полчаса, но чтоб то, что мне дейсттвительно нужно работало стабильно.

ваши «важные факторы» временные (требуют софтового фикса), а объективные критерии (а-ля время автономной работы) постоянны. Вот и считайте, если вы купите ноутбук себе года на 3-4, какой из них будет правильным в однолетней ретроспективе

Тот, который будет выполнять свои задачи. Если за этот год у меня не наберётся и получаса автономной работы, а потрачу несколько чистых дней на развертывание и поддержку системы без докера...

НЛО прилетело и опубликовало эту надпись здесь
Да, есть такой баг, но есть несколько временных воркэраундов. Плюс если не получится завести, можно просто вернуть ноут. Но вроде как пишут что с HDMI на USB-C проблем нет, только с ДП.
Ну да, разница между 15 и 20 часами

На самом деле разница между условными двумя и 5 часами под нагрузкой =)

Что же вы про низкую производительность Интела и перегрев забыли? =)

Проблема с 30Гц — буря в стакане. Конкретные мониторы с конкретным интерфейсом.

С мониторами такими вы можете и не столкнуться, а с низкой производительнгостью Интела, меньшей автономностью, перегревом, вы столкнётесь 100%.

Если вам не повезло и вас такой монитор и вы при этом купили мак для игр (wtf!?), то 30Гц вам не подойдут, а для остального вообще разницы нет.
НЛО прилетело и опубликовало эту надпись здесь
так что можно с утречка залипать там в ноут, подключённый к зарядке.

Ясно, понятно. Жизнь у розетки(с)

а вот между 30 и 60 — даже на скроллинге текста или обычной работе в IDE легко заметить.

Вот вообще пофиг на такие мелочи. Мозг адаптируется ко всему.
НЛО прилетело и опубликовало эту надпись здесь
жизнь у розетки

Во-первых, это был сарказм.
Во-вторых, человек сам нарвался на него, сказав «даже на балконе есть розетка, так что можно с утречка залипать там в ноут, подключённый к зарядке.»
Не знаю как вам, а подключать ноут к розетке выйдя на балкон — смешно же.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Удивительный фанатизм. Всё, что умеет эппл — неоспоримые, нужные всем преимущества, всё, что не умеет — да это всё не нужно!
но… вы же сами сейчас утверждаете, что то, что умеет apple (конкретно более долгое время автономной работы) не нужно, а то, что не умеют (60 fps на некоторых мониторах) — неоспоримое, нужное всем преимущество?

Ведь как минимум далеко не у всех на каждом метре жизненного пути по розетке, а мониторы только те, с которыми новые макбуки плохо работают
НЛО прилетело и опубликовало эту надпись здесь
Я не утверждаю, что всё, что умеет apple, не нужно, а всё, что не умеет — нужно.
ну да, вы утверждаете что:
Ну да, разница между 15 и 20 часами куда важнее, чем разница между 30 и 60 герцами у экрана. (сарказм, прим.)
где… ну давайте постараемся быть объективными — вероятность наткнуться на дисплей BenQ кажется несколько ниже вероятности наткнуться на нехватку батарейки
НЛО прилетело и опубликовало эту надпись здесь
Не знаю, как вы это оцениваете, но вот мониторы BenQ у меня были на прошлой работе полтора года назад, а на нехватку батареи я натыкался даже не помню когда.
ну оценивать мониторы сравнительно легко — речь идет о 4K мониторах BenQ, работающих по thunderbolt. Грубо говоря, это пересечение ~26% доли thunderbolt-мониторов, ~15% доли рынка BenQ и ~40% доли рынка 4K мониторов. То есть скажем для трех случайных мониторов хотя бы один будет проблемным с вероятностью сильно ниже 5%, и это по верхней границе оценок.

С батарейкой хитрее, но во-первых далеко не у всех розетка на каждом шагу (вы нерепрезентативны), а во-вторых, даже если ваш ноутбук садится очень редко, это наверняка во многом обусловлено тем, что вы с ним особо не отходите от розеток, в том смысле, что вы подстраиваетесь под ноутбук а не требуете от ноутбука подходить вам
Чёто я не понял каким образом 26% доли конкретно одного эпловского монитора в 2012 году превратились в 26% доли всех мониторов с тандерболтом в 2020.
С 4к мониторами тоже не ясно, там вроде написано TV, при чем в предыдущем предложении написано что они их отделяют от *мониторов*, смартфонов и тд.
да, с thunderbolt по невнимательности херню нагуглил, каюсь. С 4к мониторами взял как самую верхнюю планку (а-ля доля 4к телевизоров точно выше доли 4к мониторов).

Так или иначе мониторов с поддержкой thunderbolt пока что, к сожалению, маловато. Что никак не поможет наткнуться на одну из пары моделей, имеющих проблемы с М1.
НЛО прилетело и опубликовало эту надпись здесь
Если нет, то апостериорная вероятность нарваться на монитор с thunderbolt куда ближе к 100%
и даже в этом случае вероятность наткнуться на проблемный монитор сравнима с погрешностью оценки оной. И даже если вы на него наткнетесь, софтовый фикс (вроде как) уже есть. В общем, не стоит раздувать из мухи слона. И наоборот, как вы пытаетесь преуменьшить значимость автономности, тоже не стоит

Без гирлянд из переходников, конечно же.
Кабель, у которого на одном конце USB type C, а на другом, скажем, HDMI, а не второй USB type C — это уже гирлянда, или ещё нет?
НЛО прилетело и опубликовало эту надпись здесь
К макбукам подключаются какие-нибудь другие мониторы, работающие не по Thunderbol?
Вообще-то ещё есть usb-c, над которым thunderbolt надстроен. И таких мониторов хоть и немного пока, но уже и не полтора, здесь тоже достаточно много уже моделей показывает.
Я не утверждаю, что всё, что умеет apple, не нужно, а всё, что не умеет — нужно.


Нормальные у вас нападочки =)
Я говорил о своём опыте работы с 30Гц монитором в течение нескольких лет. А те два десятка неудачников из 7 миллиардов человек, уж смогли бы как-то продержаться до фикса, не развалились бы.

Что касается батареи, то производители ноутбуков стараются увеличить время жизни, потому как ноутбуки созданы чтобы быть мобильными.
Это их основная функция.
С серьёзной миной утверждать что это не существенный параметр — ну я даже не знаю как назвать.
Что касается батареи, то производители ноутбуков стараются увеличить время жизни

Ну да, заметно: вместо увеличения ёмкости аккумуляторов производители уменьшают габариты и вес ноутбуков, при этом под нож идёт клавиатура и порты, которые больше не помещаются в корпусе.

Угу, а в дополнение еще и лишают возможности замены батареи. Чтобы например возить с собой запасную.
Ну да, заметно: вместо увеличения ёмкости аккумуляторов производители уменьшают габариты и вес ноутбуков
как будто вес и габариты не важны для мобильного устройства.
при этом под нож идёт клавиатура и порты, которые больше не помещаются в корпусе.
а казалось бы еще вчера народ жаловался про вырезанные VGA и CD-ROM…
Порты ещё ладно, если их переходниками можно вернуть, но клавиши-то на клавиатуру переходниками не вернёшь.
как будто вес и габариты не важны для мобильного устройства.

А вес переходников учитывать не будем?

А вес переходников учитывать не будем?
а сколько грамм переходников вы обычно таскаете? Плюс, переходники нужны не всем и не всегда. Более того — если бы больше производителей убирали USB-A/hdmi в пользу thunderbolt, мы бы уже давным давно забыли про то, что они когда-то были нужны.
НЛО прилетело и опубликовало эту надпись здесь
Что касается батареи, то производители ноутбуков стараются увеличить время жизни, потому как ноутбуки созданы чтобы быть мобильными.

Мобильность и автономность немного разные понятия. Десктоп на прошлом проекте был нифига не мобильным, но автономность около часа была. А ноутбук личный мобильный, но под нагрузкой автнономность около получаса.

Удивительный фанатизм.

Давайте придерживаться фактов.
Сколько людей столкнулось с проблемой 30Гц? Есть хоть 0.1%?
А разговоров вокруг этой темы столько как будто ВСЕ пользователи ноутов Apple ВЕЧНО будут работать с 30ГЦ на ВСЕХ мониторах.

discussions.apple.com/thread/252072876
I have this question too (21)

21 человек.

This problem appears to have been resolved upon upgrade to macOS 11.1

что не умеет — да это всё не нужно

Незначительная проблема нескольких человек — вот это реальность, а не скулёж «Apple не умеет в 60Гц».

но вот мониторы BenQ у меня были на прошлой работе полтора года назад

И это был именно Benq PD3220U и подключались вы через Thunderbolt 3?

У меня за полтора года работы на машине с пингом в десяток мс не адаптировался.

Так и не понял, где вы там ощущали «лишние 10мсек»
RDP? Или облачный гейминг?

Как удивляются «свидетели 10 мсек лага», когда узнают, что 3d драйвер буферизирует 3 кадра и при 60FPS уже это даёт латентность в 50 мсек. Это не считая латентности вывода картинки и опроса устройств и подсистемы ввода, а она тоже не маленькая.
Используя GSYNC/Freesync и всякие приколы можно снизить латентность до ~60 мсек.

displaylag.com/reduce-input-lag-in-pc-games-the-definitive-guide

V-Sync OFF 59ms 3.5 frames
G-SYNC 60ms 3.6 frames

V-Sync ON (Game) + Max Pre-Rendered Frames (1) 101ms 6.1 frames YouTube
V-Sync ON (Game) 103ms 6.2 frames

Слабо верится что вы сможете почувствовать разницу между 100 и 110мс. Или между 60 и 70мс.
Это обычный «шум», который есть при локальной игре.
НЛО прилетело и опубликовало эту надпись здесь
Кстати, сколько процентов людей действительно требует 15- или 20-часовой работы от батарей?
ну например мой юзкейс — летом люблю иногда поработать снаружи, а вот таскать в офис зарядку не люблю (заряжаю по thunderbolt). В итоге моя работа снаружи ограничена автономностью ноута в весьма интенсивном режиме работы (clion + огромный проект + браузер). И ноут, способный продержаться так часов пять, вместо пары, точно бы не повредил.
Кстати, сколько процентов людей действительно требует 15- или 20-часовой работы от батарей?

Не могу сказать. Наверное в эту группу входят все люди, которые не используют ноуты как десктопы?
Например я.

О, что вы, никаких гуёв. ssh и vim внутри.

Тогда я вам не верю. 10 мс лаг на одиночном нажатии клавиши никто не почувствует, если вы конечно не уникум со сверхчеловеческой реакцией (аж зависть берёт). Либо вы просто недооцениваете тормоза вызванные сетевой подсистемой/всем стеком, и ваши «10мс» это далеко не 10.

Если вы на каком-нибудь IBM PC XT запишете байт в память в текстовом режиме (из обработчика прерывания от клавиатуры), вы увидите результат в среднем через 8.3 мсек. Эмулируемый же текстовый режим (через FB) добавляет лишнюю латентность.

А можно теперь что-нибудь такое про linux + x11 + nvidia-drivers + konsole в нём?

Не думаю что задержка там меньше сотни, а скорее больше.
Я вот сейчас замерил (с помощью isitsnappy.com) на винде — от достижения клавишей нижней точки (механика с большим ходом) до появления символа в терминале проходит 66 мсек. Но т.к. регистрируется нажатие где-то на середине или чуть ниже, то задержка доходит до 80-100 мсек.
В GVim символ появляется через 116 мсек.

«А для остального вообще разницы нет»

С момента нажатия клавиши до появления символа проходит 6 кадров при 60Гц и 3 кадра при 30Гц.
На основании измерений могу утверждать что работы с консолью / текстом никакой разницы нет. Да и мышью это не мешает пользоваться. Скроллинг в консольных окошках не попиксельный — тоже пофиг.
НЛО прилетело и опубликовало эту надпись здесь
Я тоже не использую ноуты как десктопы, но потребности в десятках часов без батареи не было.

Десятки часов значат лишь то, что можно работать под нагрузкой 4-8 часов.
Мой старый макбук (9 часов видео) разряжался за ~час (даже со свежей батареей) и нагревался до некомфортной температуры. Больше никакого х86.

Можно спокойно поехать на конференцию (в доковидные времена были такие мероприятия) и не сидеть как дурак у розетки.

Интересно, что эти же люди говорят, что «да беспроводные наушники, которые надо заряжать раз в 4-8 часов, норм».

Я не пользуюсь беспроводными наушниками.
По той же самой причине. Я наушниками за пределами десктопа вообще пользуюсь редко и не собираюсь их заряжать каждый день (как и ноуты).

прошло 29 мс, до появления символа — ещё 8 мс.

Что-то подозрительно мало. У вас гуй с композером или текстовый режим?

Впрочем, как по мне, задержка 116мс (на 60Гц мониторе) до появления символа нисколько не мешает набору.
НЛО прилетело и опубликовало эту надпись здесь
И да, пинг в 10мс 100% не должен ощущатся, должно быть хотя бы 100. Мб там обновление интерфейса или ещё что нибудь такое сказывается.
Например у вашего Т14 задежки между 50% / 80% серого и черным/белым составляют 64 и 30 мс соответственно. Возможно ещё просто пинг складывается с тормозной матрицей и в итоге переваливает за порог ощутимого.
Никто не отрицает что на амд (возможно) с нагревом и автономностью получше чем у интела, но их выбор очень скудный, например я не смог найти ноут с ryzen 7 4xxx и IPS и разрешением больше full hd. Помимо этого опять же, производительность без зарядки != с зарядкой и автономность скорее всего будет всё равно хуже ну дальше по списку. Смысл в том что раньше у макбуков было всё хорошо, кроме отношения производительности к цене. А теперь этот параметр если не лучше, то на равне с остальными.
я не смог найти ноут с ryzen 7 4xxx и IPS и разрешением больше full hd
У вас, наверное, ещё какие-то требования кроме упомянутых? Размер экрана, например? Потому что вот у меня ноутбук с 1440р и, вроде бы, IPS
Почему «вроде бы»
производитель в спеках пишет «IPS-level», но NotebookCheck в обзоре соседней комплектации, для которой тоже написано IPS-level", прямо называет матрицу IPS. Как и все прочие сайты, указывающие тип матрицы в спеках
Правда, с Ryzen 9, но это потому что я хотел и выжидал R9, R7 при этом в свободной продаже были.
Нет, искал на хотлайне, 2 параметра: IPS, Ryzen 7 4th gen. Есть только 1080p. Я искал именно 7, потому что это прямой конкурент M1, а ноуты типа которых вы скинули живут при аналогичной нагрузке в 2 раза меньше, а при полной нагрузке и 2 часов нету.
Вообще есть 1 ноут c 1440p и ryzen 7 но это этот зефир, который сильно дороже и вообще не в категории условных эйров.
А вообще я так понял это какая-то модификация TN с маркетинговым название EWV. Такого даже на вики нет. Сам дисплей, если это тот же что и в обзоре ну слишком хуже чем у того же эйра. Он даже сргб не покрывает, не говоря о всяких контрастах и яркостях.

И в общем то так и получается что интел просто фиговый, а от амд нету конкурентов.
Я искал именно 7, потому что это прямой конкурент M1, а ноуты типа которых вы скинули живут при аналогичной нагрузке в 2 раза меньше
сильно дороже и вообще не в категории условных эйров.
Ну, вот у вас и нарисовались не названные ранее параметры.
Вообще есть 1 ноут c 1440p и ryzen 7 но это этот зефир, который сильно дороже
Там листалка вправо есть на странице спеков, вы её потыкали? Там много таких.
А вообще я так понял это какая-то модификация TN с маркетинговым название EWV
Судя по постам в интернете и обзору на NotebookCheck, в одной и той же модели и комплектации может стоять и IPS, и WV. У меня на коробке указан WQHD WV.
Что значит не названые, я же написал «Ryzen 7 4xxx и IPS» в первом сообщении, какой параметр я утаил? Кроме того что я забыл добавить что имеется в виду проц с индексом U, про что я написал в ответе на пост ниже. И даже этот момент не отменяет того что на хотлайне таких (IPS, >Full HD, Ryzen 7 4xxxU) нет, что означает что их в Украине или вообще нет или надо брать в непонятных магазинах.
Даю прямую ссылку на фильтр, чтобы небыло вопросов (прокрутите слева до разрешений). Если убрать параметр IPS, то будет этот 1 зефир в 1440p.

Ну на счёт разных матриц то это вообще странно, но те обзоры где указывают модель матрицы, которые я нагуглил, указывают одну и ту же EWV/LTPS матрицу.
Что значит не названые, я же написал «Ryzen 7 4xxx и IPS» в первом сообщении, какой параметр я утаил?
Вот эти:
живут при аналогичной нагрузке в 2 раза меньше
сильно дороже
на хотлайне
в Украине

те обзоры где указывают модель матрицы, которые я нагуглил, указывают одну и ту же EWV/LTPS матрицу.
Это обзоры конкретной комплектации с R7?
Я живу в Украине, мне ноуты искать в США, Китае, или раше?

Нет, вот обзор где написана эта модель матрицы не зависимо от r7/9. На ноутбукчеке написана та же модель для фуллхд что в первом обзоре, а здесь для 1440p, ryzen 7 написана тоже такая как в первом, соответственно я предполагаю что модели тут написаны правильно и не зависят от ryzen 7/9.
Проблема в том что для матрицы 1440p есть спеки, которые выглядят весьма подробно и в них нет никаких IPS. Фулл хд матрицу (LM140LF-1F01) вообще не могу нагуглить, но есть на том же сайте, похожая по номеру и параметрам (ссылка). У одной написано AHVA у другой FFS, обе похоже выходят, или из «рода» IPS судя по подсказке на этом сайте. Но 1) Это не IPS в чистом виде, 2) Что AUO, что Panda — китайские производители, что ну совсем не внушает доверия.
Ну и последний момент что характеристики у них обоих не очень, особенно отклик. Я уже нашел тесты 1440p, и они ещё хуже чем фуллхд.

Да и LTPS то какая-то другая технология процесса изготовления, или ещё чего то, в общем не туда глянул.
Проблема в том что для матрицы 1440p есть спеки, которые выглядят весьма подробно и в них нет никаких IPS
А есть другие, в которых IPS есть. Причём, вы ссылаетесь на обзоры, в которых прямом текстом пишут «IPS», но вы не верите, и специально ищете такие спеки, в которых написано что-нибудь другое.
Фулл хд матрицу (LM140LF-1F01) вообще не могу нагуглить, но есть на том же сайте, похожая по номеру и параметрам (ссылка).
Интересное у вас «не могу нагуглить». У меня первая же ссылка ведёт на спеки, причём, ссылку я эту уже приводил, и там написано «Optical Technology: IPS». Вы же, зачем-то, вместо спецификации на матрицу смотрите «матрицы с похожим номером» и ссылаетесь на их тип.
Я ничего не ищу, эти ссылки — первые по запросу B140QAN02.3. На счёт принадлежности к IPS уже ответил. На счёт второй ссылки, это непонятный сайт на котором 3 характеристики не понятно откуда взятые и даже не написан производитель этой матрицы, хммм, кому же мне доверить, сайту на котором 30 параметров описано или 3.
Я ничего не ищу, эти ссылки — первые по запросу B140QAN02.3.
А по запросу «AUOE68C» будут другие.
хммм, кому же мне доверить, сайту на котором 30 параметров описано для другой матрицы или 3, но для нужной.
Исправил вас, не благодарите.
Ахахах окей бро, вот тебе скрин) image сООвсем другая матрица.
Разница: вторая ссылка для 2017 модели, первая для 2019. Это в принципе не важно так как тесты всё равно скорее всего проводились для 2019, что означает что скорее всего (из-за того что характеристики и углы плохие) особо ничего не поменялось, особенно технология.
сООвсем другая матрица.
Разница: вторая ссылка для 2017 модели, первая для 2019. Это в принципе не важно так как тесты всё равно скорее всего проводились для 2019, что означает что скорее всего (из-за того что характеристики и углы плохие) особо ничего не поменялось, особенно технология.
Это всё про картинку, или что? Если про неё, то по верхней ссылке будет написано IPS. Ещё вопросы?
Я живу в Украине, мне ноуты искать в США, Китае, или раше?
В мире. Вы так написали, будто их не существует вообще. И да: кто-то и с Амазона заказывает, и с Computeruniverse. И в Россию, и в Украину.
Существуют и можно купить там где я живу разные понятия. И заказывать откуда вы говорите это уже совсем другой уровень рисков и прочего. Во время выхода RTX 3080 тоже существовала. Но если вам так хочется, ок в мире есть ноуты ryzen 7 4xU, IPS, 1440p. Рад за них. В Украине их нет.
НЛО прилетело и опубликовало эту надпись здесь
Да, забыл приписочку «индекс U». У зефира не IPS, а таких леново в Украине не нашел, только на интеле есть. Да, мб Украина не репрезентативна, но например эйр можно купить легко.
НЛО прилетело и опубликовало эту надпись здесь
В посте выше была ссылка на сайт асуса где написано «IPS-level», что понятно что означает что там не IPS, и этот спек-шит тоже непонятный, относительно теста ноутбукчека там завышены покрытие сргб и контраст.

P.S. На сайте асуса вообще написано 100% сргб, ага.
P.P.S вот ссылка №2, а не №1 по запросу модели дисплея www.panelook.com/B140QAN02.3_AUO_14.0_LCM_parameter_33893.html и тут никаких IPS нет, кому верить?
написано «IPS-level», что понятно что означает что там не IPS
Нет, судя по обзорам и отзывам, это означает «IPS или не хуже».
НЛО прилетело и опубликовало эту надпись здесь
Откуда инфа, что не IPS? Вот NotebookCheck пишет, что IPS.
Буквально над вашим коментом 2 моих комента в которых я подвергаю сомнению это.
Так вы обзор на NotebookCheck смотрели? Там конкретная матрица указана, LM140LF1F01. А про тот ноутбук тоже в спеках написано «IPS level».
Смотрел и к сожалению по фоткам не возможно увидеть если ли искажения цветов под углами. По характеристикам — время отклика достаточно большое, даже для IPS, что может быть следствием этой чудо технологии которая «IPS-Level» и как то не понятно как это соотносится с «игровым» ноутом, если у того же эйра и то лучше, хотя у него матрица 60 Гц а не 120. Цветопередача более менее, но например эйру уступает.

Плюс я понял что тут это параметры фуллхд матрицы, было бы интересно увидеть именно тесты 1440p варианта.
Смотрел и к сожалению по фоткам не возможно увидеть если ли искажения цветов под углами.
Теперь вам уже и IPS не годится? Вот прямо в спекшите для запчасти указанный?
Как я уже отписал, матрицы в этих ноутах — не IPS в чистом виде, по этому я не могу знать что у них углы как у обычных IPS от, например, LG.
P.S. Сори не промотал до нормальных фото с углами, да, как видно цвета искажаются, что и требовалось доказать. Сравните с тем же эйром.
Вы смотрите обзоры, в которых написано «IPS» и приводится артикул матрицы, который при гуглении первой же строчкой выдаёт спеки с указанным типом «IPS», и всё это считаете доказательством того, что там не IPS. Поясните, как?
Всё, верю, можете считать что я верю что это IPS… Правда дерьмового качества и в итоге со сменой цветов под углами, так можно?
Да как хотите. Мне просто интересна логика, по которой вы приводите ссылку на обзор, где явно написано «IPS» как подтверждение того, что это не IPS.
Я ж уже сказал, технология эта — не IPS в чистом роде, а его далёкий родственник, что подтвердилось в спеках (AHVA, FFS) и на практике (50-60 мс респонс, круто чё, 120 Гц?).
Скорее всего магазам выгоднее продавать её как IPS не уточняя что этот IPS и IPS у LG это совсем разные вещи. Обзор так же.
P.S. PLS почему то IPS тоже не называют, хотя технология из того же рода. Просто самсунгу выгоднее продвигать свою «хорошую» технологию под именем, которое не заляпано всякими AUO и пандами) Чисто мое мнение, может по другим соображениям
Я ж уже сказал, технология эта — не IPS в чистом роде, а его далёкий родственник
Сколько раз вы ещё повторите про «эту технологию», которая «не IPS в чистом виде»? Или вы думаете, вы один буквы EWV от IPS можете отличить, а обзорщики все — идиоты, и одно сочетание из 3 букв от другого не отличают?
Могу не повторять, от этого углы обзора не улучшатся. Весь мой посыл заключается в том что у этого «IPS» отклик хуже чем у древних IPS, а цветопередача и углы на уровне хороших TN, вот и всё. Под «IPS в чистом виде» я имею в виду технологии LG и им подобного качества.
Посмотрел ревью…
Смехота. Razer не может 4к видео в х86 Премьере проиграть без дропов, даже с гудящими вентиляторами.
youtu.be/xeMvZHqPiAQ?t=1301

По результатам обзора:
Дерьмовый звук, низкое разрешение, производительность сильно хуже чем M1, меньше жизнь от батареи. Шум по любому поводу. На коленки или кровать не положить — воздуховоды снизу.
Полный провал по всем пунктам, включая цену =)
Это лучшее что вы можете предложить?

Забавно, что мой ARM ноут на Windows намного лучше этой Разеровской поделки (кроме мощи процессора).
О вот, внезапно даже сравнение вышло, видимо этот ваш рейзер весьма актуальная штука www.youtube.com/watch?v=xeMvZHqPiAQ
В видео повторяется абсолютно всё что я говорил фактически, и да, без зарядки он даже нормально работает, ну это конечно 10/10 виндовс ноут тогда не, всё таки без зарядки как и все, чуда не произошло.

Для чистоты картины нужно на оба Linux поставить и сравнить. Я вот жду таких сравнений чтобы серьёзно задуматься о покупке. Всё равно МакОсь так только, поиграться с ней "нужна".

НЛО прилетело и опубликовало эту надпись здесь

Ещё нет, вроде, но если уж винду поставили...

НЛО прилетело и опубликовало эту надпись здесь
Уже и параллелс
НЛО прилетело и опубликовало эту надпись здесь
Линукс нужна только чтобы с ней поиграться.

Забыл добавить "мне", сорри.

Ты тоже, заметил?
НЛО прилетело и опубликовало эту надпись здесь
Не стоит, это был саркастический ответ на утверждение что якобы макос нужна только чтобы ею поиграться. Обе ОС нормально себя чувствуют.
НЛО прилетело и опубликовало эту надпись здесь
но тот же Razer Book 13 работает примерно столько же, если верить измерениям Notebookcheck
а если верить другим измерениям, то в полные 2.5 раза меньше. При этом даже в некоторых не оптимизированных под ARM задачах M1 заметно шустрее, ну и дальше целый список по мелочи — разрешение выше, динамики субъективно сильно лучше, палитра лучше (это заметно прям в обзоре), само собой тачпад. Уступает MBP только в скорости чтения с SSD, не намного, но заметно. И M1 MBP еще и дешевле.
В-первых, вас как веб разработчика. Меня, как iOS разработчика, уже устраивает вообще все: Xcode поддерживает M1 и билдит проекты быстрее и тише, чем на топовой прошке 16 дюймов.

Во-вторых, никто же и не заставляет покупать устройства на М1 прямо сейчас, если они чем-то не устраивают. Apple специально обновил только начальную линейку, чтобы их покупали обычные пользователи с задачками попроще. А когда будут более серьезные девайсы — и софт подтянется.

Суть статьи в том, что на рынке процессоров для ПК появился серьезный игрок, хоть и ограниченный своей экосистемой и операционкой. Но с ним придется считаться, не сейчас — так через год уж точно.
НЛО прилетело и опубликовало эту надпись здесь
придется покупать новые устройства на М1
Потом придётся. Пока что интел-варианты не только поддерживаются, но и даже продаются.

Сервера на АРМ уже есть. Рабочие станции — очень широкое понятие. Корпсектор тоже: одни с XP сидят, у других все на маках кроме бухглатерии )

НЛО прилетело и опубликовало эту надпись здесь
Microsoft давно проявляла интерес к ARM в датацентре
hexus.net/tech/news/industry/103342-microsoft-announces-deployment-arm-servers-datacentres

Теперь они идут по стопам Amazon — делают проц под себя.
www.bloomberg.com/news/articles/2020-12-18/microsoft-is-designing-its-own-chips-for-servers-surface-pcs

Microsoft Corp. is working on in-house processor designs for use in server computers that run the company’s cloud services, adding to an industrywide effort to reduce reliance on Intel Corp.’s chip technology.

По производительности аналогичные решения от AMD в полтора раза быстрее.

Только вот в AWS покупают VCPU, а два VCPU это одно ядро х86 или два ядра ARM, которые имеют более высокую (и гарантированную) производительность, причём дешевле. Win-win.

Даже Ampere Altra на старом ядре N1 неплохо выступает.
www.anandtech.com/show/16315/the-ampere-altra-review

А скоро и 128-ядерник обещают.
НЛО прилетело и опубликовало эту надпись здесь
Парни! Вопрос такой! В дальнейшем собираюсь писать под iOS, как на M1 с разработкой под более старые устройства? К примеру, тот же самый iPhone 7? Он ведь на данный момент довольно популярный телефон.

iPhone 6s и далее поддерживают iOS 14.
Последним XCode собирать можно приложения с минимальной целевой версией iOS 9: https://developer.apple.com/support/xcode/

Тест с redis показателен. Возможен случай когда мощный сервер с redis не вытянет протестированных на М1 нагрузок.
  1. 8 инструкций за такт (в отличии от 4х в x86)
  2. самый прогрессивный тех процесс 5нм, который позволил сделать под 15 миллиардов транзисторов и сравнительно энергоэкономичным
  3. быстрая очень память
    Вот и хороший рецепт отличного процессора.

Хотя я не понимаю конечно чего все удивляются? Компания самая богатая в мире, инженеров у неё толковых хватает.
В ее силах вполне успешно можно сделать хороший процессор. Я бы больше удивился если бы они его не сделали.

Где-то сейчас грустит один Intel :)

Что значит 8 и 4 инструкции за такт? Количество инструкций (точнее, uOps) за такт в идеальном случае равно длине конвейера (если нет stall'ов). Согласно wikichip у Ice Lake (у того же Tiger нет ещё информации) это 14-19 стадий конвейера.

Причём тут длина конвейера?
Каждый такт читаются / декодируются / выполняются / уходят в отставку (retire)
несколько инструкций. Почитайте что такое суперскалярный процессор.
Последние процессоры Интел могут читать из uOp кэша до 6 микроопераций за такт, а декодировать только 4-5 (через legacy decode). Ядро Apple Firestorm может декодировать 8 инструкций за такт. Сколько запускает неизвестно, но есть 17 портов запуска. В буфере переупорядочивания находится более 600 инструкций.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь

L2 общий только для производительных CPU ядер. Под ним ещё уровень кэша, который как раз общий с GPU и всеми остальными блоками, и уже через него идёт доступ в память. Anandtech пишет об этом, хотя и без подробностей
Кажется, написал фигню. Похоже, это кэш для SSD.

НЛО прилетело и опубликовало эту надпись здесь
В случае с М1 мы имеем 8Мб кеша второго уровня для 4 больших ядер и 4 Мб для маленьких.

Не 8, а 12.
При обращении одного ядра более чем к 8МБ, есть небольшое пенальти.

Самое забавное, что латентность L2 кеша на M1 выше чем L3 на ZEN 3 — 96.83 нс против 78.87 нс на full random.

«Забавное» тут другое — это латентность ПАМЯТИ.

L2 кеш на Zen 3 имеет в 8 раз меньшие задержки — около 10нс, а L2 кеш на Zen 3 работает примерно на скорости L1 кеша М1. Задержки L1 для Zen 3 составляют около 1.6нс.


Всё смешалось в доме Облонских(с).

L2 кэш на FIrestorm имеет латентность 7-8 нс
Пройдите по своей же ссылке и убедитесь. (полка 128-8192)
~7нс / ~4нс = 8? У вас какая-то особая математика.

128k L1 Apple 3 такта на 3ГГц = 1нс
32k L1 AMD 4 такта на 5ГГц = 0,8нс
Откуда вы вытащили 1.6нс, решительно непонятно.

Иными словами, в плане скорости работы с памятью Zen 3 гораздо лучше.

Ага, одно ядро M1 имеет ПСП аналогичную всему 8-ядерному чиплету.
НЛО прилетело и опубликовало эту надпись здесь
Ну наконец-то хоть кто-то показал, что Азул молодцы и сделали стабильную версию джавы для m1.
джава уже очень давно на ARM'ах работает, откуда бы иначе под андроид разрабатывали?
Интересно, отличается ли набор команд у Apple M1 от референсного ARM.
Слышал (на youtube канале) что лицензия у Apple позволяет это делать.
Мне, как конечному пользователю всё равно, «универсальный» это процессор или добавлены специальные команды, которые ускоряют типовые операции. intel ведь тоже добавляла новые команды (MMX, SSE, AVX)

У них есть кастомные регистры. Также, у них есть переключатель режима работы с памятью для ускорения работы Rosetta 2.

Слышал (на youtube канале) что лицензия у Apple позволяет это делать.

Вы слышали что-то не то. Допускается такое только в M-профайле.
developer.arm.com/architectures/instruction-sets/custom-instructions
Тем не менее у Apple они есть (AMX), хотя никакой детальной информации нет.

Мне, как конечному пользователю всё равно,

От того что к «универсальному» процессору добавлены команды, он не становится менее «универсальным».
Проблема в том, что новые команды из новых ревизий архитектуры могу занять опкоды, которые используются для поддержки кастомных инструкций «без спроса». И это сломает совместимость.
Вы слышали что-то не то. Допускается такое только в M-профайле.
кажется, не совсем: "Arm Custom Instructions are a standard feature of the Armv8-M architecture, in particular the Arm Cortex-M33 CPU, which is optimized for cost and power-sensitive microcontrollers for embedded and IoT applications". Выглядит так, словно это фича лицензии на Armv8-M архитектуру либо лицензии на ядро cortex-M33, и насколько я понимаю, у apple есть та самая лицензия на архитектуру.
От того что к «универсальному» процессору добавлены команды, он не становится менее «универсальным».
вопрос наверно в том, весь ли спектр ARM инструкций поддерживается в apple silicon. По идее конечно же должен, но мало ли, вдруг через пару лет весь андроид мир будет использовать кастомные расширения от qualcomm, например.
Проблема в том, что новые команды из новых ревизий архитектуры могу занять опкоды, которые используются для поддержки кастомных инструкций «без спроса». И это сломает совместимость.
там разве не отдельный диапазон выделен под кастомные инструкции?
«Не совсем» что? Мне кажется всё однозначно написано.

Arm Custom Instructions allow you to add a customizable module inside the Arm Cortex-M33 and Cortex-M55* processors.
Эти ядра поддерживают подключение внешнего клиентского ip-блока, который будет выполнять операцию. Вы же не можете просто так бросить некий блок и рассчитывать что он как-то сам подцепится.

Выглядит так, словно это фича лицензии на Armv8-M архитектуру

Несомненно, лицензия должна это позволять.

ARMv8-M это микроконтроллеры, коих в SoC имеется десятки штук,
но какие именно — вообще не интересно.
developer.arm.com/documentation/100688/0200/An-introduction-to-the-ARMv8-M-architecture?lang=en

The ARMv8-M architecture is a 32-bit architecture. The registers in the register bank, most data operations, and addresses are 32-bit. The 32-bit linear address provides 4GB of address space, which is architecturally pre-defined into several regions with different memory attributes.


Приложения запускаются на ядрах другой архитектуры — ARMv8-A (Application Processor).
Там никаких кастомных инструкций нет.

вопрос наверно в том, весь ли спектр ARM инструкций поддерживается в apple silicon.

ARMv8.4+
Объясните пожалуйста. Зачем вы ждёте docker? Если вы пользуетесь услугами дата центров или у вас свои сервера. С большой долей вероятности, они на x86-64. Получается для разработки вам нужен arm-based дистрибутив в докере и x86-based дистрибутив на сервере.
Мне кажется поведение lib внутри докера, в небольших нюансах может и будет отличаться для разных архитектур.
Если вы не ждёте docker. Тогда конечно вопрос не к вам.

Думаю, поймать эти различия ещё нужно постараться, а сами они будут багами.

НЛО прилетело и опубликовало эту надпись здесь
За добавление поддержки Apple M1 и адаптацию всей инфраструктуры клиенты платить не станут.

За поддержку Apple x86 бывало платили, когда понимали, что это позволит сделать проект более привлекательным для кандидатов.

НЛО прилетело и опубликовало эту надпись здесь

Нет, ещё потому что клиент хочет, чтобы этот разработчик работал на него. Даже при найме клиенты бывают пересматривают различные политики на проекты, когда не могут уговорить подходящих по скиллам специалистов принять оффер.

НЛО прилетело и опубликовало эту надпись здесь

Так и я о том. У клиента есть проблема, решить её готовы разные люди, но им нужна адаптация процессов под макось. Без таковой они не хотят решать проблему клиента. Разве что с солидной доплатой за мучения под виндой/линуксом, такой что адаптировать процессы дешвле.

НЛО прилетело и опубликовало эту надпись здесь
Как можно сравнивать M1 с его 8 ядрами, с процессорами прошлого поколения от Intel с 6 ядрами? Если сравниваете AMD с 12 ядрами против Intel с 6 ядрами, то графики говорят о том, что intel выигрывает почти на всех, в особенности там, где требуется многоядерность.

Честное сравнение будет M1 vs Ryzen 5900X vs i9 10900K.
НЛО прилетело и опубликовало эту надпись здесь
Кстати, в июле кто-то писал:
Если они смогут на нем макпро выкатить в течении года после объявления, который будет сравним с рязанькой 4хххH и при этом энегроэффективнее. Тогда я просто офигею) Потому что сделать эффективнее на малых частотах — это одно (особенно, когда сравнивают с интелом, которые немного отстал). А вот после задрать частоты и нарастить ядра, но при этом не уйти в кипятильник — это другое. Далеко не факт, что это легко будет сделать уже имея отличный смартфонный проц.


Всё сбылось, но офигевания не вижу…
НЛО прилетело и опубликовало эту надпись здесь
Ну там 2600s в ноуте тысяч за 100


Какой экран у этого суперноута?
2.5k, ips, 16:10, яркость > 350 хоть наберется?
НЛО прилетело и опубликовало эту надпись здесь
Ну тогда 16 гигов оперативы давайте… а, их в РФ не заявлено на сайте эпла, максимум 8/512

Это неправда. Выбираете модель и дальше настраивается всё.

НЛО прилетело и опубликовало эту надпись здесь

Это у них считается разными "базовыми моделями", хотя различие, не устраняемое конфигуратором, есть только в GPU у Air. Маркетинговые заморочки.
А цены на технику Apple в России действительно немного безумные, тут сложно спорить.

А цены на технику Apple в России действительно немного безумные, тут сложно спорить.

По моим прикидкам приблизительные аналоги по ТТХ ("белые", от сопопоставимого по известности и "крутости" вендора) стоят плюс-минус столько же или даже заметно дороже, если прямого аналога (с 17" дисплеем, например), нет, но вариант должен быть не хуже.

Честное сравнение будет M1 vs Ryzen 5900X vs i9 10900K.
ноутбучный процессор с потреблением порядка 30 Вт против десктопных с потреблением до 160/250 ватт соответственно? Честное сравнение.

Вы конечно можете поспорить что mac mini это десктоп, но пк со сравнимым процом (если верить GB5 по multicore score, это будет i9-9900k) обойдется вам дороже. А пребилды от интеграторов в компактных корпусах, с которыми еще логичнее сравнивать мак мини в силу его объема, обойдутся еще дороже.
НЛО прилетело и опубликовало эту надпись здесь
openbenchmarking.org/result/2012212-HA-APPLEM1PR00
чет прям очень удивительный набор результатов. Один из процов «VirtualApple @ 2.40GHz (8 Cores)», то есть эмулированный через rosetta2, а остальные три выдают практически идентичные результаты в большинстве бенчмарков. А в некоторых кейсах он даже выигрывает относительно других M1. Складывается впечатление, что весь набор тестов не адаптирован под apple silicon. По крайней мере другие одноядерные веб бенчмарки обычно дают очень существенный перевес в пользу M1.
Да, можно вспомнить о том, что Ryzen 7 5800X потребляет до 125 Вт, но через две недели должны выйти мобильные чипы Ryzen 7 5800H и Ryzen 7 5900HS с 45 и 35 Вт TDP со схожими частотами и производительностью.
пока что про 5800H мы знаем только его 1475/7630 очков в geekbench 5, что в общем случае не бьет результаты M1. Хотя остается вопрос в каком профиле сделан замер — если это при работе от батареи, то результат конечно же очень впечатляет.
На данный момент по данным 73 бенчмарков М1 в среднем в три раза медленнее чем 5800X
Ну бенчмарки типа «oneDNN 2.0 Harness: Recurrent Neural Network Training — Data Type: u8s8f32 — Engine: CPU» (нейронки, вычисляемые на CPU) можно смело игнорировать. Тем более если они опять вычисляются через rosetta2.
Да, там почти всё запускается через Rosetta 2.

Всегда останутся люди, которые продолжат выискивать всё более экзотические бенчмарки и «объяснения», почему x86 всё ещё «топ».
Оставьте вы их в покое. Время рассудит.
НЛО прилетело и опубликовало эту надпись здесь
Да, вы можете возразить, что в М1 есть аппаратный блок для работы с видео, но в этом случае М1 имеет смысл сравнивать с системами со схожим аппаратным блоком.

Radeon 5700XT

Прошлогодняя видюха, всё еще стоит 350 баксов.
Рассеивает 200 ватт. Норм сравнение.

И все тесты через розетту?

НЛО прилетело и опубликовало эту надпись здесь
Эти тесты показывают производительность процессора во вполне реальных задачах.
вы действительно считаете вычисление нейронки на CPU через rosetta2 «реальной задачей»? Напомню, что в M1 есть neural engine, специально заточенный под нейронки вычислительный блок. И в по-настоящему реальных задачах использоваться будет именно он.
Особо интересны результаты кодирования H.265 видео силами CPU Kvazaar 2.0, где Ryzen в среднем в 6 раз быстрее.
это тоже без аппаратного ускорения и через rosetta2? Очень «реальная» задача.
Об этом маленьком обстоятельстве многие честные блогеры предпочитают умолчать. Удобно ведь сравнивать программное декодирование или совершенно никакой аппаратный декодер в Vega с таковым в M1.
так ведь это и есть реальная задача — декодирование видео так, как это делают пользователи, т.е. с аппаратным ускорением?
Да, вы можете возразить, что в М1 есть аппаратный блок для работы с видео, но в этом случае М1 имеет смысл сравнивать с системами со схожим аппаратным блоком
а этот аппаратный блок есть в ноутбуках с актуальными 1185G7/4800U? Или что, раз в M1 есть neural engine, надо сравнивать его с железом, заточенным под вычисление нейронок, например серваком с восьмью tesla V100?

Что до конкретно rosetta2 — через пару-тройку месяцев подавляющее большинство юзкейсов будет выполняться нативно. И смысл замерять эмуляцию?
НЛО прилетело и опубликовало эту надпись здесь
Если сравнить М1 с Intel Core i7 1165G7, то процессор Intel на 30% быстрее: openbenchmarking.org/vs/Processor/Apple%20M1,Intel%20Core%20i7-1165G7
опять через rosetta2?
По поводу стоит ли учитывать результаты теста oneDNN, то почему бы и нет? Он показывает насколько процессор хорошо справляется с большим количеством простых операций, а также в приложениях, которые не умеют задействовать Neural Engine.
потому что у 99% реальных пользователей никогда не будет таких сценариев?
Что касается Rosetta, то она обеспечивает прирост в среднем 15-25%
не прироста а просадки, и она может превосходить и 50% в зависимости от юзкейсов. В большинстве случаев rosetta2 дает просадку в 20-40%. А если бы M1 еще и через эмуляцию уделывал intel/AMD, то нам с вами и обсуждать было бы нечего.
Если рассматривать серьезную работу с САПР, 3D-рендерингом и Machine Learning, то здесь Apple M1 вообще не вариант. Большая часть подобного софта оптимизирована под nVidia, производительность там гораздо выше.
то есть всё это будет считаться на GPU, а не на CPU через слой трансляции, да? Я вам больше скажу, если рассматривать ML, то еще лучше будет комбинация сервер + тонкий клиент. А в качестве тонкого клиента для подключения к серверу macbook air на M1 как раз таки замечательно подходит.
Если спуститься на уровень обычного пользователя, то современные видеокарты умеют аппаратно декодировать AV1, чего нет в М1
вау, круто. Где я могу купить ноутбук с такой видеокартой?

Я ведь не утверждаю что устройства на M1 самые лучшие для любых задач, но черт подери, даже если вы собрались сравнивать феррари с белазом, рассматривайте хотя бы кейсы за пределами метрового слоя грязи.
НЛО прилетело и опубликовало эту надпись здесь
Большинство тестов запускалась нативно. Для этого просто достаточно сопоставить значения с другими обзорами (на Phoronix, например).
почему тогда все результаты этих тестов с точностью до погрешности совпадают с «VirtualApple @ 2.40GHz (8 Cores)», который свидетельствует как раз об использовании rosetta2?
Если запустить PHPBench 0.8.1 через Rosetta 2, то производительность будет не 525 тысяч баллов, а около 420. В Kvazaar 2.0 Boshporus 1080p Medium будет не 5.2, а 4.6. На пресете Very Fast будет не 14.1, а 12.75.
ну вы приведите тогда ссылки на эти результаты.
В общем, тесты по ссылке выше вполне объективно отображают текущее состояние вещей
если, конечно же, все эти запуски нативные, однако я уже привел факты это опровергающие. Привел дважды, между прочим.
Разница в производительности при использовании Rosetta 2 около 15-25%
*в конкретном юзкейсе. На самом деле достаточно всего лишь глянуть на страничку на основании которой был сделан этот вывод и отлистать вниз, чтобы увидеть и примеры где rosetta2 почти не влияет, и те, где разница 40+%
Что касается AV1, то ноутбуков с Intel Tiger Lake сейчас очень много, включая упомянутые ранее Razer Book 13 и Dell XPS 9310.
ну вместо любого из этих ноутов M1 макбук берется без раздумий — он выдает примерно тот же перф с автономностью выше в полтора-два раза. С 4800U хотя бы поразмышлять можно, он хотя бы в многопотоке обходит M1.
НЛО прилетело и опубликовало эту надпись здесь
Вы продолжаете смотреть на мусорные данные и тешить свой Confirmation Bias.

Selenium и сам не портирован, и браузерные движки там под x86.
FLAC и Kvazaar — энкодеры, вручную затюненные с использованием AVX для максимальной производительности на x86 — под ARM никто их даже не пытался никак оптимизировать.
Про остальное мне лень смотреть, но думаю там похожая ситуация.

Это вообще нельзя назвать сравнением CPU, тем более делать какие-то выводы о производительности.
НЛО прилетело и опубликовало эту надпись здесь
К слову, из-за этого некоторые программы не работают через Rosetta 2

Из-за этого никакие приложения не ломаются. Далеко не все x86 CPU имеют поддержку AVX, поэтому абсолютно все приложения делают фолбеки.


Стоит также упомянуть, что эти инструкции придумали не просто так, они позволяют достичь куда большей производительности на современных x86 процессорах.

А на ARM придумали другие инструкции, и их никакие из этих "тестов" не используют.
В случае с FLAC хорошо видно, что там есть фоллбек с AVX на SSE, а вот веток с NEON/AMX нет, поэтому через Rosetta производительность в несколько раз выше, чем в нативно-собранной версии.


Что касается самих тестов, то они вполне объективны.

Они объективно меряют запуск конкретных неадаптированных приложений под транслятором. К сравнению производительности CPU это не имеет отношения.
Из тех приложений, которыми я пользуюсь, остался непортированным только торрент-клиент, который я не хочу на бету обновлять по отдельным причинам, и Sublime Text, в котором я не знаю, где искать тормоза.


Никого ведь не смущает тот факт, что Geekbench оптимизирован под ARM.

Вас не смущает, что там даже Geekbench запускается x86 версия под Rosetta, когда ARM версия была готова ещё до поставки реальных устройств?

НЛО прилетело и опубликовало эту надпись здесь

Спасибо за редкий пример, где разработчики просто забили на совместимость внутри x86 мира. Такое ещё бывает с некоторыми играми.
Пользователям свежих гибридных Lakefield (а также последних Pentium Silver, и всех Atom), наверное, очень обидно.

Инструкции AVX используются в очень многих современных приложениях, начиная с продуктов Adobe с дополнениями и заканчивая всякими там Python и Java.
NEON тоже дофига где используется, но ни один из приведенных вами бенчмарков этого не отражает. Зато они отражают нерелевантные, по вашим же словам, юзкейсы.
Что касается самих тестов, то они вполне объективны. Никого ведь не смущает тот факт, что Geekbench оптимизирован под ARM.
код, который нативно работает под M1, тоже оптимизируют под ARM. И его производительность никак не коррелирует с производительностью AVX под rosetta2.
НЛО прилетело и опубликовало эту надпись здесь
Да, действительно, NEON используется во многих приложениях для смартфонов, но среди десктопных приложений — это огромная редкость.
yet. Автовекторизацию никто не отменял (да, для этого надо лишь пересобрать), SIMD-библиотеки, поддерживающие NEON, никто не отменял, библиотеки, поддерживающие NEON вручную никто не отменял…
Что касается производительности AVX, то она примерно в 2.8 раза выше чем у обычных SSE/SSE2
чет этот пассаж противоречит лично моему опыту написания SIMD кода. Обычно AVX дает порядка 80% над SSE3, при условии сравнительно линейного алгоритма.
которые по своей сути являются аналогом NEON.
вы думаете ARM не умеет в 256-битные регистры и шире?
НЛО прилетело и опубликовало эту надпись здесь
Она не работает дальше тривиальных примеров, да и на них не работает
если она работает на x86, то высоковероятно отработает и на NEON, при сборке под ARM таргет. Я вполне натыкался на код с заанроленными циклами чтобы компилятору было проще догадаться до автовекторизации, иногда используются всякие pragma omp и пр. Часть кода попросту перепишут руками, часть кода уже умеет в NEON, и надо лишь пересобрать.

В любом случае пассаж «NEON не встречается в x86 коде под десктопы поэтому давайте замерять производительность M1 на x86 коде через эмуляцию» является и предвзятым, и нелогичным.

Ну я взял и написал: https://github.com/Viknet/counting-chars/tree/neon
Сразу скажу, что до этого ничего никогда с векторными инструкциями не делал, выдал то, что изучил за вечер.


Из интересных результатов:


  • наивная версия x86 через rosetta работает слегка быстрее нативной arm64;
  • SSE4.2 версия под rosetta похоже не смогла оттранслировать эти инструкции, и делает эмуляцию;
  • на x86 наивная версия автовекторизированная clang -O3 с AVX работает быстрее, чем написанная вручную SSE4.2;
  • на arm64 -O3 ничего не автовекторизируется, и вообще не ускоряется относительно -O2 при любых флагах и модификаторах архитектуры;
  • ускорение arm64_Naive — NEON примерно такое же, как x86_Naive — AVX.
НЛО прилетело и опубликовало эту надпись здесь

Да не вопрос. Но я уверен, что это далеко не оптимальный вариант — я просто сделал кальку с sse версии, используя те инструкции, что нашёл, не пытаясь подбирать количество линий в итерации, высчитывать такты инструкций и т.д.
Ну и собирал я всё под clang — gcc под m1 пока нет — поэтому может потребоваться немного напильника.

Ясно, интересно, видимо для арма оптимизатор ещё не накрутили, если учесть что с `-O3` он на грамм быстрее чем дневнючий ай 5, хотя видно что с неоном он в принципе ожидаемо быстрее в 3 раза в однопотоке. В том же гикбенче оно примерно так и есть.
Если сравнить 1165G7 с M1, то М1 существенно быстрее (>10%) в 7 приложениях, Intel — в 18. Если проанализировать данные, то получится, что Intel в среднем на 20% быстрее.
я с тем же успехом могу сейчас накидать сравнений M1 против того же 1165G7 в исполнении ARM кода. Спойлер: М1 будет быстрее.
Нет, вы можете, конечно сколько угодно цитировать Apple с их «М1 быстрее чем 98% ноутбуков», но реальность совершенно другая.
вам накидать замеров в реальных юзкейсах, типа монтажа видео (всё еще через rosetta2, кстати)?
НЛО прилетело и опубликовало эту надпись здесь
Да, приведите тесты, где М1 куда быстрее чем Tiger Lake.
geekbench 5? Cinebench r23 (multicore)?
Если речь идет о монтаже видео, то там используется аппаратный декодер, а не процессор как таковой.
ага, только этот аппаратный декодер является частью проца, и реальный код его использует для ускорения пользовательских задач. Или у вас AVX это тоже аппаратный блок а «не процессор как таковой»? Чего тогда ваши бенчи отражают быстродействие второго но не первого?
НЛО прилетело и опубликовало эту надпись здесь
Что касается самого теста Geekbench, то он в целом оптимизирован под ARM. Это проявляется в том, что даже в пятой версии использование SSE/AVX инструкций там очень ограничено.
где в ARM версии GB5 используется NEON там, где в x86 не задействован SSE/AVX? яили в SIMD можно только x86 процам, иначе «ничесна»?
Если рассматривать систему в целом, то ноутбук с весьма старой по нынешним меркам видеокартой GeForce GTX 2060 кодирует видео примерно в 3 раза быстрее в Premier Pro: youtu.be/W82KrjnPaZc?list=LL&t=323
adobe premiere pro не оптимизирован под M1. Это даже говорит обзорщик в видео по вашей же ссылке.
НЛО прилетело и опубликовало эту надпись здесь
AVX инструкции активно используются в тестах AES-XTS, Machine Learning, а также в нескольких других.
и эти тесты входят в набор тестов гикбенча. Так почему вы тогда пытаетесь доказать что гибкенч дает преимущество ARM процессорам, приводя пример обратного?
Что касается прямого сравнения AVX и NEON, то они отличаются количеством обрабатываемых данных
Для справки: NEON не ограничен 128-битными операциями, и масштабируется вплоть до, емнип, 2048 бит.
Отсюда и возникает различие в 2.8 раза между 128-битными SSE/NEON и AVX.
еще раз, вы в реальных задачах никогда не получите такого увеличения производительности. Например, обращение к младшим 128-битным частям ymm/zmm дороже чем прямое обращение к xmm. Но, подозреваю, это вам ни о чем не говорит.

А это упирается ещё и в возможности ALU/FPU, а не в систему команд. Если FPU 128-битный, и он только один, то команда, оперирующая 2048-битными данными, будет выполняться в 16 раз медленее аналогичной команды, работающей с 128-битными данными.


Например, обращение к младшим 128-битным частям ymm/zmm дороже чем прямое обращение к xmm.

Поясните. Если вы имеете в виду работу с младшими 128 битами с сохранением старших бит, тогда да, это дорого.

А это упирается ещё и в возможности ALU/FPU
x87 FPU уже давным давно устарел и полностью заменен на SSE. Насколько я в курсе, SIMD операции в x64 выполняются на 64-битных арифметических блоках, и действительно можно упереться в число одновременно доступных, но их число расширяется условно линейно и я не вижу причин почему это бы ограничивало ARM больше, чем x64.
Поясните. Если вы имеете в виду работу с младшими 128 битами с сохранением старших бит, тогда да, это дорого.
в том числе
x87 FPU уже давным давно устарел и полностью заменен на SSE.

А SSE — это уже не FPU?


Насколько я в курсе, SIMD операции в x64 выполняются на 64-битных арифметических блоках

По-моему, уже давно на 256-битные и в Intel, и в AMD. Был поначалу период, когда 128-битные блоки объединялись для выполнения AVX команд, сейчас они полноценные 256-битные, причём для выполнения и 64-битных, и 128-битных команд блок задействуется целиком.


о их число расширяется условно линейно и я не вижу причин почему это бы ограничивало ARM больше, чем x64.

Вопрос в целесообразности и востребованности в разработке процессора с 16+ FPU-блоков на ядро.

По-моему, уже давно на 256-битные и в Intel, и в AMD
вы немного о другом, SSE/AVX содержат не только операции с плавающей точкой. Да, с последних пор «честные» 256-битные регистры есть и у AMD, но это не значит, что задача а-ля «перемножить попарно 8 double'ов» делается в одном физическом блоке.
причём для выполнения и 64-битных, и 128-битных команд блок задействуется целиком
«ширина» команды ведь определяется адресуемыми регистрами. Ну, если говорить о всяких vmulpd, например.
Вопрос в целесообразности и востребованности в разработке процессора с 16+ FPU-блоков на ядро.
вот мы уже имеем на рынке ядра на ARM и x86 со сравнимой производительностью. Почему вы думаете что на какой-то архитектуре делать N арифметических блоков целесообразнее, чем на другой? Ну, есть конечно hyperthreading, но в этом контексте он скорее против x86 играет.
Если рассматривать систему в целом, то ноутбук с весьма старой по нынешним меркам видеокартой GeForce GTX 2060 кодирует видео примерно в 3 раза быстрее в Premier Pro:

Лихо вы новейшее поколение доступных в ноутбуках карточек записали в "весьма старые по нынешним меркам", и проигнорировали тот факт, что сравнивается дискретная карта со встроенной, при разнице энергопотребления почти на порядок.
Так-то встройка из M1 даже в этих неоптимизированных приложениях выглядит эпическим вином для холодного ультрабука.

НЛО прилетело и опубликовало эту надпись здесь
Видеокарты Turing были представлены более двух лет назад. 2060 по меркам нынешнего поколения Ampere — это карта начального уровня.

И ничего новее пока в ноутбуках нет. Только ещё более мощное и жручее, того же поколения.


По поводу разницы энергопотребления, то для всего ноутбука она примерно соответствует разнице в производительности — около 30 Вт у Apple против около 92 Вт у Asus G14 с 4900HS + 2060.

Скорее, 150 vs 30 для этих ноутбуков. image
И сама карта может потреблять от 100 до 185 Вт в пике, в зависимости от нагрузки и конфигурации питания ноутбука.
GPU в M1 потребляет 10 Вт под нагрузкой.

НЛО прилетело и опубликовало эту надпись здесь
Да, это несколько больше 10 Вт, о которых вы говорите.

Я говорю про потребление именно GPU.


Что касается значений от 100 до 185 Вт — то это максимальные значения для всего ноутбука. В среднем там около 121-147 Вт под нагрузкой.

Да, то что это не только GPU, мне было непонятно из графиков. Можем принять "бумажный" TDP от NVidia — 80-90 Вт. Что и составляет почти порядок разницы с M1 GPU.


Уровень производительности старенькой 2060 в играх, задачах машинного обучения и обработки видео в несколько раз выше чем у М1.

Потому что M1 сделан для холодных ультрабуков, которым надо долго работать от батарейки. И в этой нише он сейчас не имеет конкурентов по производительности.
То, что его вообще начали сравнивать с дискретными видеокартами и десктопными процессорами с кардинально другими энергобюджетами — уже должно о чём-то говорить.


Что касается мобильных видеокарт Ampere, то они будут анонсированы в начале января.

Когда появятся в продаже — тогда будет иметь какой-то смысл сравнивать. А пока есть то что есть.

НЛО прилетело и опубликовало эту надпись здесь
Вы сравниваете потребление только GPU с потреблением всего ноутбука с GeForce GTX 2060.

Нет, этого я не делаю. Цифры 100-180 Вт я признал ошибочными в прошлом же ответе.


Условная мобильная GeForce GTX 3060, которую должны анонсировать через две недели будет ещё в 1.5 раза производительнее при схожем энергопотреблении.

И это тоже будут (когда-нибудь) ноутбуки другого класса, для людей с другими требованиями к автономности (и нагреву).


Это я к тому, что для тех кому нужна производительность устройства на М1 в принципе не нужны.

Смотря какая производительность. Монтировать 4k-видео без лагов и шума вентиляторов уже хватает, чего нельзя сказать ни про какую другую встройку.
А для тех, кому нужно больше, девайсы ещё просто не обновились — M1 для самых младших моделей.


Что касается ультрабуков, то есть Razer Book 13, который обеспечивает схожие потребительские качества и при этом не имеет проблем с софтом.

Потребительские качества у него куда хуже, это даже любители Razer признают.

НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
вы сейчас серьезно, в статье с названием «бенчмарки Apple M1 в реальной разработке», уточняете, какие там еще бенчмарки адаптированы под M1?
НЛО прилетело и опубликовало эту надпись здесь
если рассматривать конкретно M1 против 4800U конкретно в cinebench и geekbench, от батареи и от сети. Столбцы: M1, 4800U от сети, 4800U от батареи.
geekbench: ~1730/~7700 vs ~1475/~7900 vs ~730/~5450
cinebench: ~1500/~7700 vs ~1230/~10000 vs ?/~8560.
Откуда я брал результаты.

Итого M1 уверенно лидирует во всех однопоточных кейсах (их 4), и в одном многопоточном, а также примерно сравним в geekbench multicore по сети. 4800U уверенно лидирует в двух многопоточных кейсах. Но вы же опять будете доказывать что однопоток вообще не играет никакой роли, и никакие факты и реальные юзкейсы вас конечно же не разубедят.
НЛО прилетело и опубликовало эту надпись здесь
А я указывал вам раз за разом, что отзывчивость «системы» нифига не умение в одной ядро посчитать одну задачу
а я утверждаю что та самая отзывчивость зависит от однопоточной производительности больше, чем от многопоточной.
Только проблема, у меня вот фоном десятки приложений
это уже определяет отзывчивость в конкретно вашем случае. Не надо подменять понятия, раз уж пытаетесь меня за это драконить.
Это по вашему нереальные юзеркейсы или как?
как вы думаете, многие играются на рабочих компах?
Или реальные кейсы только у вас, как обычно?
напомните мне пожалуйста, где я что-то утверждал про свои юзкейсы?
это уже определяет отзывчивость в конкретно вашем случае.

Я бы сказал, что это типовой случай со времён выхода Windows 3.0, а то и раньше. Отзывчивость в режиме "запущен только UI" мало кого интересует.


как вы думаете, многие играются на рабочих компах?

С марта — многие :)

Я бы сказал, что это типовой случай со времён выхода Windows 3.0, а то и раньше. Отзывчивость в режиме «запущен только UI» мало кого интересует.
вы прекрасно понимаете о чем я. Висящий в фоне и простаивающий софт (коего большинство) больше всего влияет на потребление оперативы.
Я понимаю что это трюк, но всё же. Есть ли какой то смысл вообще сравнения «отзывчивости» винды и макос? Для такого сравнения уже лучше реально дождатся линукса под м1. А если мы смотрим на чистую производительность — тут никаких сюрпризов нет, однопоток за М1, многопоток за 4800U.
НЛО прилетело и опубликовало эту надпись здесь
в том случае, когда вас интересует умение решить задачу в один поток, игнорируя, что мир многопоточен уже десятки лет. И даже, о боже, многие программы научились не виснуть гуем, пока тяжелую задачу в другой поток лупят.
я повторю вопрос, от которого вы уже несколько раз уклонялись. Вы хоть раз разрабатывали многопоточные приложения?
Причём, если бы кто запустил сжатие базы фоном, а сам сидел играл в солитёр на маке или ютубчик в браузере смотрел — это бы показало, что вероятно претензии к отзывчивости весьма не обоснованы. Но вы предпочли именно подмену одного явления другим.
вот здесь есть демонстрация с кучей фоновых приложений. Или вот здесь. Вам сойдет за пруф? Или доказательства по вашей же избранной методологии вам не хватит?
Сейчас я вам покажу многзадачность. Ну как сейчас, когда дискетка отформатируется.
Да нет, отзывчивость — это именно умение системы реагировать на действия пользователя в целом, а не скорость решения конкретной задачи.

Вот как раз с дискеткой отзывчивость была нулевая в win+dos, система почти не реагировала на действия пользователя при работе с дисководом, хорошо если курсор мыши двигался — она, кажется, вообще в real режим переключалась для работы c дисководом через BIOS и блокировала всё остальное. На этой задаче многозадачность превращалась в однозадочность, какой быстрый проц в однопотоке не был.

Купил его только для того чтобы поспонсировать миграцию софта на ARM. IDEA работает, зачёт, но, сто пудов, следующий мой комп будет на Android и раза в четыре дешевле, когда оно появится на рынке. MAC OS не впечатляет абсолютно, мне от ОС нужны ТОЛЬКО: файловая система, возможность запускать приложения и возможность подключать устройства в максимально короткие сроки. С этими задачами не справляется ни одна ОС. Обычно если что-то cносно к примеру устройства подключает, как Винда, то в довесок к этому идёт куча г., мешающего работать. Распространение же ОС это понятное дело не моя прерогатива — я просто покупаю то, что в магазине.
Железо на самом деле средненькое у этого M1 pro 16gb RAM. Можно было хотя бы замутить тачпад в виде тачскрина и находить все bluetooth устройства, а не унылые исключения.

Публикации

Истории