Комментарии 206
Никогда. Эпл проговаривает мантры про пост-писи эру уже десятилетие точно, но получается, на самом деле, не очень: на выходе получается готовое, но мало с чем совместимое устройство, не подлежащее модернизации, оттого и доля у них — около 10% по миру. Им хватает, они довольны.
Если бы они горели желанием захватить весь рынок, то применялись бы совсем другие методы.
> Как вы думаете, сможет ли архитектура ARM полностью вытеснить x86-64?
Эпл проговаривает
Но ведь ARM это не только Apple… а как же микрокомпьютеры? Серверы на ARM?
Да и для десктопов та же ситуация — мне на самом деле не ясно — чего ждут производители? Винда под ARM давно есть, учитывая, что всё-таки подавляющее большинство пользователей ПК используют его не в профессиональных целях, а для потребления контента — почему нет? Да даже видео/фото/музыкальные редакторы довольно высокого уровня есть на мобильных платформах, работающие на том же ARM и которых достаточно большинству пользователей.
Мне кажется здесь будет история, как было в своё время с металическими корпусами ноутов — первыми и довольно долгое время их делала только Apple, а в последние годы это стало обычным делом и для остальных производителей. Так и тут — как остальные производители увидят возможности ARM от Apple и что она его использует для десктопов и ноутов — остальные производители ПК наверняка так же начнут массово выпускать аналогичные модели, и рынок наполнится не только тонкими клиентами.
Никогда
Откуда такая уверенность? Какие преимущества есть у x86-64 перед ARM? Возможность легаси разное запускать, ну так оно далеко не всем нужно.
Покажите писюк на ARM, да такой, чтобы все слотовые комплектующие на уровне драйверов подходили. Пока что мы видим, наоборот, устройства, не позволяющие себе слоты расширения.
> Какие преимущества есть у x86-64 перед ARM?
А какие преимущества есть у ARM перед x86-64?
Они зацепили нишу с планшетами и мобильными, а ПК, ноутбуки и игровые приставки никуда с x86-64 не делись. Преимущества эпла на ARM пока или невнятны, или платформоспецифичны.
Эти слоты нужны единицам процентов. Я реально плохо понимаю что мне в эти дырки пихать. Что уж говорить о простых пользователях, кому комп нужен чтобы в инете посидеть.
Видеокарту? Звуковую карту с нормальным ЦАП? первый/еще один NvME накопитель?
> Что уж говорить о простых пользователях, кому комп нужен чтобы в инете посидеть
эти ушли на ноутбуки, да, им, может, и не надо.
У меня всегда были стационарные ПК и потребности туда что-то воткнуть не возникало ни разу. Даже флешкой уже лет 5 не пользовался. И куча людей так же. Так что очевидно что Apple сделала очень правильный шаг и весьма вероятно следующим моим ПК будет ПК от Apple.
Просто потому что я так и не нашел ни одной причины сидеть на всем этом легаси с кучей портов
Звуковая карта устраивает большинство людей — встроенная, кто занимается музыкой — всё равно внешнюю покупают.
Так что Apple очень круто угадали с iMac — для дома очень хорошее решение, просто всегда было подороже, чем PC, но глядя — на текущие цены на рынке, мне mac-и не кажутся сейчас такими уж дорогими, тем более на ARM они стали ещё дешевле.
Единственное что огорчает в Apple — это отсутствие возможности самому заменить SSD.
Видеокарту? Звуковую карту с нормальным ЦАП? первый/еще один NvME накопитель?
В случае M1 видеокарта есть на проце. Звук и так отличный — без шумов и наводок свойственных дешёвым ноутам/платам для PC.
Впрочем в ARM системы и так втыкается любая актуальная видеокарта.
Для Радеона дрова идут «из коробки», для Nvidia есть бета-версия.
Какие проблемы с NVMe? Он втыкается даже в игрушки с 96boards.
чтобы все слотовые комплектующие на уровне драйверов подходили
Ага, ведь если не 100% всех, когда либо созданных девайсов PCIe работает,
пользоваться ARM компом никак нельзя :)
Впрочем в ARM системы и так втыкается любая актуальная видеокарта.
Можно примеры?
Насколько я знаю в ARM как раз видеокарты не работают за очень редким исключением, видимо, специальных версий карт под арм.
"Специальные версии" — это интегрированные решения вроде Tegra, там свои заморочки.
А обычные карты от NVidia или AMD работают так же как с x86. Вот линуксовые бинарные драйвера NVidia под ARM32 и ARM64, у AMD драйвера в ядре.
Основная проблема с заведением карт под ARM — найти платформу с PCIe. Например, официальных Windows-on-ARM девайсов с PCIe/Thunderbolt пока не существует, поэтому и драйверов никто не собирал.
Что значит "не хотят" и какая им вообще разница, кто по PCIe данные шлёт?
Попробуйте найти именно практически рабочее решение на АРМ.
Пожалуйста: Ampere eMAG 8180. На выбор в комплекте есть разные варианты самых обычных GPU, и можно поставить любую свою карту.
Или вот более старый GIGABYTE ThunderXStation с банальной NVIDIA GeForce GT 710, а тут рассказывают, что тестировали с разными картами NVidia и AMD.
vbios под x86 написан
Это давно решено на уровне ОС: https://news.ycombinator.com/item?id=20401258
это очень редкие исключения где сам производитель ГПУ пошел навстречу, обычно это АМД. Точно так же в приведённых примерах 1-3 адаптированных варианта.
А список поддерживаемых карт тоже ни о чём не говорит?
Есть так же долгая попытка завести карту на последней малинке с PCIe.
Распаивая проводочки по плате и пытаясь добиться стабильного PCIe 1.0 x1? К тому же, по ссылке выше пишут, что в нём просто недостаточный размер Base Address Register, чтобы завести современную видеокарту.
В нормальных системах с полноценным PCIe x8 таких проблем просто нет.
UPD: В конце концов там всё упёрлось в драйвера контроллера
И из свежего на м1 эпловских не работают егпу, не смотря на полноценный болт.
Так драйверов нет. И, скорее всего, не будет — ради 0.5% пользователей entry-level моделей, которые хотят подключить eGPU, никто драйвера под ARM macOS писать не будет.
К тому же, по ссылке выше пишут, что в нём просто недостаточный размер Base Address Register, чтобы завести современную видеокарту.
В нормальных системах с полноценным PCIe x8 таких проблем просто нет.
там вроде как не в него упирается, по крайней мере для других ГПУ BAR хватало.
А список поддерживаемых карт тоже ни о чём не говорит?
Черт его знает о чем он говорит, парню который малинку заводил эти драйвера никак не помогли, с нвидиа вообще мало что находится.
Так драйверов нет. И, скорее всего, не будет — ради 0.5% пользователей entry-level моделей, которые хотят подключить eGPU, никто драйвера под ARM macOS писать не будет.
Да, кстати, об этом не подумал. Может так и есть
там вроде как не в него упирается, по крайней мере для других ГПУ BAR хватало.
Какие другие GPU заводили на Raspberry Pi через PCIe?
Черт его знает о чем он говорит, парню который малинку заводил эти драйвера никак не помогли, с нвидиа вообще мало что находится.
Я дописал апдейт, где поясняется, на чём остановился проект: https://twitter.com/domipheus/status/1175340360060612608
С архитектурой ARM это никак не связано — проблемы в урезанном PCIe-контроллере и/или драйвере для него.
Собственно, как я и говорил, основная проблема заведения GPU под ARM — найти нормальную плату с полноценным PCIe.
игровые приставки никуда с x86-64 не делись.
Кхм, до PS4/Xbox One ни одна из консолей не использовала x86-64. А Nintendo Switch как раз работает на ARM.
На сайте pipci.jeffgeerling.com есть список устройств, которые в нем работают.
Но на своем ютьюб канале он как-то поинтереснее рассказывает, самое интересное по теме, наверное, это youtu.be/ikpgZu6kLKE (GPUs on a Raspberry Pi Compute Module 4!).
Пост-писи — это совсем не про архитектуру процессора, а про то, что ПК сильно потеряли в важности для (домашних) пользователей после появления современных смартфонов, планшетов и облачных сервисов.
А полностью вытеснить x86-64 не получится ещё очень долго.
Да и не нужно.
А вот отжать долю рынка — запросто.
А еще все, вообще, все забыли про PowerPC, на котором работал раньше Эпол.
Еще, кстати, я забыл про UltraSPARC — его тоже добавим в архив архитектур, которые можно магическим образом извлечь из кладовки.
Хорошо что есть эмуляция старого процессора, ну подумаешь производительность чуть проседает. В век когда промышленные приложения пишутся на древней с накрашенными губами Яве, нечему особо удивляться. Всё равно к процессорной эмуляции добавиться ещё и программная. ARM архитектура кажется более стройной. А конечному пользователю важно чтоб его любимые программки работали, а если ещё и быстрее чем раньше, то вообще класс!
Примеры костылей? Именно в x86_64. А то костылей, из которых ARM и состоит, можно привести массу. От странных размеров imm, не влезших в прокрустово ложе фиксированных кодировок команд до штук 5 попыток сделать вложенную виртуализацию. А уж забавные косяки RTL, которые принято патчить компилятором и костылями в ядре ОС - отдельная песТня.
1742/7577, а к примеру мой младший iMac 17-го года выдаёт всего 835/3003, хотя конечно Radeon Pro 570 он проигрывает, но оно мне и не надо на самом то деле :)
но я пока опасаюсь Rosetta, хотя пока отзывов негативных по этому поводу и не так много, но хотелось бы попробовать. может когда новые imac'и выйдут — решусь :)
Современные ssd морально устаревают раньше, чем расходуют ресурс. Конечно если не писать на них безостановочно.
А брак, в том числе и серийный брак, всегда есть.
appleinsider.com/articles/21/02/23/questions-raised-about-m1-mac-ssd-longevity-based-on-incomplete-data
Подозреваю что причина в том, что из-за быстрого SSD и быстрой компрессии памяти своп на 8 гигах не чувствуется. А из-за общей скорости M1 маков их начали использовать куча юзеров с тяжелыми задачами, поэтому просто убивают SSD свопом раньше времени.
Выскажу предположение ято на топавых imac и mac pro мы увидим обычные можули оперативы поставленные в параллель с текущей системой памяти и на них ляжет своп.
И если они так сделают это будет действительно, как минимум, интересно!
Очень быстрый своп и нет проблем с убиением SSD.
Какой смысл в свопе на ddr? Почему бы дополнительную память сразу не использовать по назначению?
Задержки до памяти в слотах будут немного выше, чем до on-package.
Но, скорее всего, память будет использоваться именно как память, просто ОС будет прозрачно перемещать активное приложение с данными в память поближе.
А в m1 чипы памяти стоят максимально доступного на рынке объема? Кажется поставить больше основной памяти дешевле, чем делать программно-аппаратный костыль.
Это не костыль. У разных людей разные требования к количеству памяти, поэтому для рабочих станций вроде Mac Pro имеет смысл память делать расширяемой. Но при этом memory-on-package в любом случае быстрее, и такая гибридная система может иметь смысл.
SWAP на SSD включен практически сразу.
Записано 8.25Tb, с октября 2019. Заявленный производителем ресурс 320Tb.
Не хочу хвалить Windows 10, но вроде бы там есть аналог zram, который сжимает неиспользуемую память, однако остался момент с виртуальной памятью — если в Linux (насколько мне известно) её объем не зависит от swap, то в Windows объем виртуальной памяти равен физический + файл подкачки (он же swap.)
PS: с 2013года без постоянного HDD в ПК, начиная с Vertex 3, который недавно погиб при пересадке в ноутбук. Буду воскрешать.
Есть аналогичная информация и на 16гб, но у меня, например, такой проблемы нет. У меня в целом не самая большая нагрузка: два be в докере крутятся и два фронтенда открыты всегда. Докер кушает ~3-4гб ОЗУ, но общее потребление больше 12гб не видел ни разу.
Data Units Written показало 600гб за месяц (0%), из которых 400гб я сам записал
А в целом доволен как слон :)
Значит поменять накопитель захочется еще быстрее, а нельзя.
Мой личный опыт (полность не репрезентативный) говорит об обратном. Механики на моем веку померло предостаточно. Более пяти экземпляров точно (домашнее использование, сейчас не про работу). И еще ни одного SSD.
Первый SSD на 128 GB я купил, емнип, в 12-м или 13-м году в десктоп под систему, потом он перекочевал в один ноут, потом в другой и до сих пор коптит небо под ежедневным использованием, в общем и целом. Нотбук тот сейчас не у меня, статистику прям с него предоставить не смогу, но пока живой, это я точно знаю. Был еще на 256, где-то в 2015-м, с очень похожей судьбой, тоже все еще вполне живой, в ноуте, в данный момент теоретически переплывает атлантику в контейнере, до этого использовался ежедневно. И несколько других и того младше, про них особо смысла говорить пока нет. Я в общем дожил до того, что у меня на десктопе сейчас кроме nvme PCI-E gen4 ssd на 2тб нет других носителей и чувствую я себя прям прекрасно по этому поводу (во многом потому что ничего на этом пк не хранится полезного).
Да, SSD мрут неожиданно и SMART не поможет определить «сколько ему осталось» как это было с HDD. Но это не говорит о том, что SSD плохие и/или ненадёжны, это говорит о том, что сломаться в любой момент может всё что угодно (как и HDD), и если вам важны ваши данные — всегда помните о резервном копировании.
Сколько терабайт уже записано знает контроллер накопителя. Я пользуюсь оффициальной самсунговской тулзой Samsung magician, но наверняка есть и другие.
Это ресурс ссд. А сколько Вы из него потратили, и прочее просигнализирует например smartctl на линукс.
Прошли те времена когда в ссд умирал контроллер, или баг в прошивке делал данные нечитаемыми при отключении света.
Это ресурс ссд
т.е. ССД может умереть только при выработке своего ресурса исключительно? :)
баг в прошивке
да конечно :) только осенью вот был большой кипиш по этому поводу, да ещё и в серверном сегменте
Я не гарантирую конечно, shit happens )) но ссд уже вечность на рынке, по современным меркам. Они вполне надёжны. Как минимум в пределах гарантированного производителем ресурса. А дальше можно чекать смарт, если растёт кол-во плохих блоков то отправлять на пенсию в какой нибудь кэш. (На самом деле они способны вынести в разы больше чем гарантирует производитель, судя по endurance тестам)
Но скорее всего Вы гораздо раньше сами поменяете ссд потому что технологии прогрессируют еще быстрее
У меня 128Gb Crucial сдох так. Вечером ушёл с работы — всё было отлично, пришёл утром — комп висит — перезагрузили — винта нет… В сервисе даже никакой служебной информации с него вытащить не смогли, и сразу другой выдали…
Купил себе называется «подороже», по отзывам они были гораздо лучше ADATA, хотя более дешёвые ADATA — прекрасно работали у коллег и дальше и никаких смертей с ними не было…
но ссд уже вечность на рынке, по современным меркам. Они вполне надёжны. Как минимум в пределах гарантированного производителем ресурса.
За последние 5 лет умерло два домашних ссд. Причем внезапно и безповоротно. Я думаю выработка по ресурсу у них была не более 10%. А так да — надежная технология )))
десятки миллионов ноутбуков (вот уж где точно жесткие диски противопоказаны и ставятся только от бедности)
Кстати да, мой первый SSD появился у меня тогда, когда винчестер в ноутбуке не пережил «воздушной ямы» и приуныл.
С тех пор у меня не было ни одного сдохшего SSD, а тот что покупался безвременно почившему винту, WD на 256 гигабайт, успешно трудится в качестве внешнего хранилища игр для Xbox Series X.
Поэтому да, HDD нынче это уже нишевый продукт. Даже 2,5 дюймовые в переносных боксах у меня давным давно никуда из помещений не выносятся. Так как один, опять же, не перенёс гололёд, находясь в рюкзаке. Причём не думаю, что я смог развить перегрузку, превышающую даташитовую. Просто неудачно сложилось.
в небольшом городке даже ик паяльную станцию не найдете. собирают по "рога и копыта" конторкам и отправляют в столицы. но это не дело.
тут пробовал отпаять чип феном лукей. ну и лучше б не пробовал. только мелочь сдувает рядом.
потом. вопрос цены. чипы в адаптерах и тп по отдельности — долгая доставка и цена =новому устройству+доставка. т.е. это дикий минус.
как и оперативка. понаделали кругом говно сайтов на js(что с откл. js даже не откроется сайт — выдаст предупреждение и ошибку).
а с вкл да без диких правил в адблокере у тебя память съедается десятками гигов в браузере только.
т.е. ее надо 20-30Гб. а некоторым 120-200ГБ мало. а они добавить не могут. нафиг такие устройства. они продают на мощном проце с минимальными 8+Гб. уроды. мобилок хватает с мучениями, когда тебе все за оверпрайс.
В макбуках 13-15х годов аналогично оперативку апгрейдили, с дополнительными изменениями обвязки (страпов), чтобы система знала, какие модули установлены.
Насколько я читал, с thunderbolt носителя макось грузится (с обычного USB пока нет), но чтобы её туда установить надо повозиться.
Всё, что касается загрузки, сейчас активно дорабатывается со стороны Apple, поэтому если эта возможность критична, я бы мониторил macforums и ждал больше успешных историй.
Но отвечая на вопрос — kvm, если не знали, прибит гвоздями намертво к linux, так что нет, он не заведется. У mac os свои собственные решения для виртуализации, там есть rosetta 2 которая может запускать x86 код, и есть свои концы для виртуализации arm, вроде бы даже windows 10 arm запускали. qemu(который либо софтварно эмулирует архитектуру, либо просто является фронтендом, как в случае kvm) там тоже вряд ли заведется с каким либо хардварным ускорением, у apple есть собственный гипервизор.
Вопрос в том, насколько будут эти концы виртуализации подходить под домашний сервак… Учитывая опыт з docker на маке — наверное не будут.
Одним словом — нет, это мусорка для домашнего сервака по параметру деньги/полезный сервачный выхлоп.
Думаю что под домашний сервак есть более подходящие варианты :)Например? Если не считать самосборные серверы выбор не такой уж и большой.
Шум и остальное тоже зависит от целей. За всё надо платить так или иначе.
Цена-производительность-компактность: можно выбрать любые две фичи.
Я же говорил про сегодняшние решения, а не варианты 15-летней давности как X5355.
Мало кого заинтересует решение на X5355, только если не от жадности когда оно достаётся бесплатно. Да и то надо будет поискать кто такое может взять.
Например, у меня было что-то на базе i7 6-7-ого поколения с 64GB памяти как сервер, но потом стало не хватать и я обновился до чего-то более современного, шустрого и просторного. Заплатив за это чуть большим шумом и размером. Сервер стоит в подвале и поэтому эта цена была для меня приемлема.
Ну вот, альтернатив М1 нет.
Кому-то важен размер, но это не значит, что размер — самый важный критерий для всех подряд.
Цена-производительность-компактность: можно выбрать любые две фичи.
Нет сервера, где все три фичи на пике высоты. Чем-то надо всегда жертвовать. Даже с M1 надо чем-то будет пожертвовать.
Ну и куда я буду в M1 свои 12 HDD втыкать? К домашнему серверу бывают разные задачи.
Конечно, вы не ожидали увидеть ответ через столько времени. Возможно даже вообще не ожидали, но: у Mac на M1 есть сейчас два порта Thunderbolt 3. Они обеспечивают скорость передачи данных до 40 Гбит/с. Существуют дисковые полки с Thunderbolt 3 (стоят как крыло боинга, правда). Поэтому если у вас всё же возникнет непреодолимое желание воткнуть корзину из 12 дисков к Mac — решение есть.
P.s. У самого дома обычный сервер, с корзиной, если что)
P.p.s. Но от сервера на ARM за разумные деньги и с нормальным TDP я бы всё же не отказался. Чтоб этак на 6 дисков с горячей заменой.
Есть какой-нибудь HPE Microserver Gen10 Plus. Слышать от него вы всё равно будете, в основном, диски.
Но всё зависит от требований. Если вам хватает минимальной флеш-памяти в mac mini — вы можете его брать. Если нет — вам нужны другие решения.
Помимо этого, на м1 уже сейчас работает tech preview parallels.
Виртуализация на ARM - печальная история.
Как вы думаете, сможет ли архитектура ARM полностью вытеснить x64?
Сомнительно. Скорее появится принципиально новая архитектура, которая похоронит и ARM, и x86-64 (и то не сразу).
угу. как в песенке… прилетит вдруг волшебник, в голубом звездолете...
Я не вижу у архитектуры ARM никаких принципиальных преимуществ, которые позволили бы безоговорочно победить x64.
Точно так же я не вижу принципиальных преимуществ у архитектуры x64.
Обе архитектуры имеют свои преимущества и недостатки. Обе тянут за собой хвост старых решений, от которых никак не получается уйти.
Так что будут они бодаться между собой до тех пор, пока не появится новая архитектура, имеющая такое принципиальное преимущество, ради которого потребители смогут отказаться от старого багажа.
Это только на мобильном рынке АРМ смог практически задавить конкурента, несмотря на его попытки на этот рынок пролезть. На других рынках (десктопы, ноутбуки, сервера) такого не наблюдается, и, судя по долгому времени наблюдения за таким состоянием, не будет уже никогда.
Эппл в данном случае вообще не показатель. Они в своей персональной песочнице. И смену архитектуры они уже не один раз проводили. Только на остальной рынок электроники это не влияет почти никак.
Другой вопрос, что такой альтернативной прорывной архитектуры ждать в ближайшем будущем не приходится, а потому вполне допускаю, что в случае, когда (и если) такая архитектура появится, ей придется хоронить не только эту сладкую парочку АРМ и Х64 (вторая на самом деле всего лишь разросшийся Х86), а три-четыре архитектуры, не имеющих возможности похоронить (или хотя бы задвинуть в очень узкую нишу) хотя бы одного из конкурентов.
Так что будут они бодаться между собой до тех пор, пока не появится новая архитектура
Если бы было все так просто, то Интел давно бы уже это сделали. Внутри, ARM и X86 не такие уж и разные.
Позволю себе процитировать себя
Другой вопрос, что такой альтернативной прорывной архитектуры ждать в ближайшем будущем не приходится
Оно действительно весьма непросто. Потому-то пока ничего и не видно не то что в реальности, но даже в перспективе.
Из существующих "конкурентов" тот же RISC-V ничем принципиально не отличается кроме лицензии и отсутствия монстров, способных быстро развивать эту архитектуру.
VLIW просто перекладывает то, что делают другие процессоры для распараллеливания, на компилятор. Если я правильно понимаю, как работает эта архитектура, то оно, конечно, упрощает процессор, делая его в теории эффективнее, но настолько же усложняет компилятор и ставит вопросы эффективного выполнения разных процессов, код которых скомпилирован независимо.
Потому они пока из своих узких ниш так до сих пор и не вылезли.
Разве что у RISC-V есть шанс стать третьим равным бойцом на рынке, если в него решится вложиться и сможет это дело развернуть какой-нибудь монстр. Но монстры все больше в сторону АРМ смотрят (и Эппл туда же).
Еще MIPS есть, но с ним тоже пока как-то не очень.
Старое поколение имеет 4 порта, а новое — всего 2.
Действительно, зачем на десктопе порты, ишь чего захотели.
Там по середине страницы прям картинкой.
Использую данный компьютер для работы. Докер работает отлично, проблем не было. Весь JetBrains софт работает. Но, даже не смотря на то, что у них есть сборки под ARM для Mac (кроме Rider) единственное, это дает более быструю скорость запуска приложений. К сожалению на моем мониторе 27 4к все ide jetbrains работают заметно медленнее чем с подключенным к этому же монитору macbook pro 16. Если открыть окно на весь экран, то очень не комфортно пользоваться. При этом на макбуке с интел такого нет. Подозреваю, что если подключить mac mini m1 к монитору с full hd то тормозов в ide jetbrains будет меньше или не будет вообще. С vscode ситуация чуть лучше, но не идеальна. За то есть vscode insider, который я сейчас использую как основной инструмент. Он летает. Очень приятно работать. Быстрее чем обычный vscode на макбук про 16. В основном работаю над бекендом. Основные языки C#, Go, Python, C. Многие библиотеки, которые я использую не поддерживают arm. Но это не проблема, так как можно поставить нужные библиотеки под x86 а затем использовать их (на примере python) в vscode insider под m1 указав интерпретатору использовать x86-64 архитектуру. Так что можно без проблем программировать с использованием не поддерживаемых в m1 библиотек из софта, который собран под m1.
Что касается розетты. Не стоит беспокоиться. Все происходит в фоне. Единственное, для удобства можно сделать себе 2 терминала. В одном из них поставить галочку — «запускать под розеттой», а второй под нативную работу. Так что если вы активно используете: protobuf, grpc, numpy и т.д, то не беспокойтесь, все будет работать.
По поводу оперативной памяти. По началу смущал факт 16гб. Думал, что будет очень мало. Но по факту я вообще перестал думать о памяти. Она как будто бесконечная. Приведу пример. Запущен Docker. В нем крутится rabbitmq, 7 контейнеров, запущенных через композ, 3-4 окна vscode insider, datagrip, rider, slack, telegram, около 10 вкладок в хроме. При этом нагрузка на память не доходит даже до половины. Да своп может уйти от 1 до 8 гигабайт. Но это никак не сказывается на производительности. Единственный случай, когда мне удалось максимально нагрузить память (это не связано с программированием) это когда я открыл одновременно около 50 файлов RAW (размер одного файла, примерно 24мб) в pixelmator pro. Вот тогда прогрузился процессор и график нагрузки памяти был красный, своп был 36-37 гигабайт. При этом система не зависла и я мог продолжать ей пользоваться без тормозов. Тормозил только сам pixelmator pro.
Подводя итог, могу сказать, что mac mini m1 мне нравится больше чем макбук на интел. Интерфейс более плавный и отзывчивый, быстрее работает нужный мне софт. Но от macbook pro 16 пока не могу отказаться из за jetbrains софта, который к сожалению на m1 медленно работает (монитор 27 4к). И еще один плюс, он тихий. Даже под нагрузкой. Вентилятор еле слышно, если в плотную поднести мак мини к уху. Всегда холодный.
К сожалению на моем мониторе 27 4к все ide jetbrains работают заметно медленнее чем с подключенным к этому же монитору macbook pro 16.
Попробуйте отключить сглаживание шрифтов в настройках — алгоритм сглаживания пока не портирован даже в native-сборках, поэтому всё тормозит. Мне на 27" 4k (с 2x масштабированием) без сглаживания вполне комфортно, по крайней мере со стандартным шрифтом Jetbrains Mono.
Работают у вас кнопки яркости и громкости через внешний дисплей? весь сторонний софт что я нашел пока не оптимизирован под м1
По факту после апдейта до 11.2 ничего не изменилось и это печально, жду 11.3
Похожие проблемы начали появляться на старом Mac Mini 2012 после обновления до Catalina, когда монитор не всегда мог проснуться, причём даже переподключение кабеля не всегда помогало (там приходилось использовать DisplayPort).
Яркость и громкость не регулируется.
Монитор AOS U3277PWQU, подключен переходником USB-C/DP
Если установить FullHD 4k — то тогда все будет крупнее, но при этом целочисленное масштабирование (1 логический пиксель = 4 физических), но интерфейс начинает летать.
Для 27" хорошеий вариант это уже 5k мониторы — LG Ultrafine 5k, или, если 4k, то 24" мониторы.
К сожалению индустрия не балует нас правильными вариантами, подозреваю что из-за каких-то особенностей скейлинга на Windows мы не получаем «правильную» ретину от сторонних производителей.
Конкретно тут тормоза связаны с рендерингом шрифтов в самой IDEA: https://youtrack.jetbrains.com/issue/IDEA-259046
Причина тормозов может быть в Scaled разрешениии — контролы на 27 4k выглядят нормально, если установить scaled аналог 2560x1440, но тогда операционке приходится вычислять дробные масштабы
Если установить FullHD 4k — то тогда все будет крупнее, но при этом целочисленное масштабирование (1 логический пиксель = 4 физических), но интерфейс начинает летать.
Дело не совсем в дробном масштабировании. В режиме HiDPI macOS всегда рендерит в буфер размером 2x от "scaled" разрешения, а потом делает downscale до родного разрешения монитора.
Для scaled-2560x1440 разрешение рендеринга выходит 5120x2880, а для scaled-FullHD — 3840x2160, что требует несколько меньше ресурсов. Сам downscale же почти ничего не стоит.
Будет несколько обидно, если это окажется не устройство от Apple. Все же первое реально массовое сделали именно они. И я готов отдать им должное и проголосовать рублем. Но не за такое решение.
По сути удивительно, но aARM64 правильно «окученный» оказывается вполне рабочим решением для приличного куска рабочих задач. До M1 в это верилось с трудом. Да до сих пор верится с трудом. Linux на этой архитектуре ведет себя сильно паскуднее. Впрочем, тут пожалуй очень много зависит от видео-подсистемы. Это Apple может себе позволить качественный код для собственного GPU. Его показывать не надо, и конкуренты по нему ничего не раскроют. В принципе, что-то подобное может получиться у Microsoft. Тоже закрытая система. И тоже вывод в основном на GPU. Но надо посмотреть…
Похоронит ли это x64? Не уверен. Не интерактивные, сильно ресурсоёмкие задачи класса «числодробительная машина» под открытыми операционными системами востребованы. И в ближайшее время менее востребованными не будут. Правда кусок «десктопов» уж очень велик по объему… Но в любом случае пока ждем.
Да и у Apple не просто голый arm64, а со своими плюшками. Эти плюшки могут и другие навесить, это вопрос цены.
могут сразу взять то, что надо.
Если бы ещё всем и всегда было ясно, что надо.
Много лет на разных маках, и забыли про отвал GPU Nvidia ?
Linux на этой архитектуре ведет себя сильно паскуднее.
Дело не в архитектуре, а в микроархитектуре. Вы пробовали гораздо более слабые процессоры — массовых ARM64 ядер сравнимых по производительности с Firestorm просто не существовало.
Но мне сильно ближе понятие «сбалансированнности» системы и отсутствии явных ошибок проектирования. Apple долго шла к M1. Реально долго. Они отказались от X.Org оставив его эмулируемой прослойкой. Они сделали достаточно серьезную ставку на отрисовку интерфейса на GPU (что по тем временам выглядело несколько сомнительным). Они долгое время оптимизировали код имея параллельно опыт с macOs на Intel + NVidia/ATI-AMD и iOS на ARM/aARM64. Не было тут никакой гениальной «микроархитектуры» возникшей ниоткуда как чертик из табакерки, при чем только у Apple. Но результат оказался шикарным. Система неимоверно сбалансирована. Нет ничего, что было бы излишне скоростным и много потребляющим (а значит сильно греющимся) или чего-то сильно тормозного, из-за чего остальная система вынужденно простаивает. При этом все это «накрыто» сильно переработанным, но все же UNIX'ом.
Собственно это и есть причина, по которой aARM64 сервера не сильно стреляют. Нет, они годятся для определенного круга задач. Они вполне справляются с NAS'ами или не сильно нагруженными приложениями. Все равно производительность хромает. Та, которая вычислительная (условно «фоновая»). А вот «интерактивная» наоборот оказывается выше. Но востребована она на десктопах/планшетах. На серверах нужна как раз «фоновая». Собственно это ответ на вопрос «в чем паскудность» от nochkin
Потому спасибо Apple — они показали, что десктоп вполне может быть на aARM64. А вот про сервера… Посмотрим стрельнет ли ставка на «многоядерность». Там все не так просто. Впрочем у SUN (ныне Oracle) был весьма солидный опыт запуска UNIX на реально многоядерных системах. Если, конечно, он не потерян окончательно и бесповоротно.
Э-хе-хе… Знаете, слова микроархитектура и «крекс-пекс-фекс» (или, что аналогично «патамучта!») чем дальше, тем больше становятся синонимами. Как и кеш все больше становится синонимичен «сим-салавим, ахалай-махалай» (или «бе-бе-бе»). Маркетологи взяли эти термины на вооружение и теперь ими объясняется все. А раз так, то пусть будет микроархитектура и кеши — я не против.
Вы можете сколько угодно хихикать, если не понимаете, что за этими словами стоит, но лучше почитайте.
Они отказались от X.Org оставив его эмулируемой прослойкой.
В MacOS X, как и ранее в MacOS, никогда не было "нативного" X11 сервера. Это всегда была прослойка для портированных приложений.
Но это, как и все остальные рассуждения про софт, не имеет отношения к производительности процессора.
Не было тут никакой гениальной «микроархитектуры» возникшей ниоткуда как чертик из табакерки, при чем только у Apple.
А микроархитектура Zen тоже возникла "ниоткуда как чертик из табакерки"? Или за ней таки стояли прорывные идеи и годы работы, как и у Apple?
Собственно это и есть причина, по которой aARM64 сервера не сильно стреляют. Нет, они годятся для определенного круга задач. Они вполне справляются с NAS'ами или не сильно нагруженными приложениями. Все равно производительность хромает. Та, которая вычислительная (условно «фоновая»).
Вы можете сколько угодно хихикать, если не понимаете, что за этими словами стоит, но лучше почитайте.
…
Вам пора обновить представления о мире.
Простите, но сдать ЕГЭ уже просто по возрасту не получится. Потому придется терпеть меня таким, каков я есть. Со всем багажем наработанных знаний.
Еще раз, для тех кто читал невнимательно: пусть будет микроархитектура и кеши — я не против. Пусть будут aARM64 сервера. У меня есть стратегический запас попкорна и изрядная доля инженерного сарказма. И даже невозмутимость есть для комплекта. Потому дурак, мхом поросший — ну и замечательно.
Не было тут никакой гениальной «микроархитектуры» возникшей ниоткуда как чертик из табакерки, при чем только у Apple.
Не знаю в какой берлоге вы спали, но микроархитектура Firestorm (A14/M1) — это развитие Cyclone (A7) 2013г.
Производительность — результат 7 поколений инкрементальных улучшений.
Какой ещё «aARM64»? Вы несёте какую-ту ахинею (про вступление я вообще молчу)
Про микроархитектуры и их развитие. Так я и говорю о том, что M1 не возник из ниоткуда и всех победил. Он результат поэтапных (если больше нравится инкрементальных) улучшений. Вопрос лишь в том, а чего так слабо остановились. Всего-то 2013 год. Я, например, прекрасно помню ARM926-EJS (на котором Intel и отказался от ARM, решив сосредоточится на x84/x64 продав свою серию PXA). Вполне себе предшественник A7. И даже глубже — ARM7TDMI (кошмар для программиста, падавший в DATA ABORT при любом доступе к невыравненной переменной). И это то, только то, что щупал своими руками я сам. Так что я не понял про берлогу. Тут мы с вами полностью солидарны.
Вообще, господа жонглирующие терминами «микроахитектура», а расскажите мне серому (лучше в виде статьи) чем же микроархитектура отличается от макроархитектуры? Есть ли миддлеархитектура и по каким именно критериям происходит разделение на эти уровни. Только знаете, источники должны быть не хуже IEEE std или на крайний случай RFC. В принципе пойдет и официальная документация ARM. И я с радостью посыплю голову пеплом и скажу что был не прав. Но до тех пор, уж простите, разговоры про особенности микроахитектуры для меня останутся маркетологическим бредом, нацеленным на тупого конечного пользователя не желающего вникать в особенности реализации системы. Этакий «черный ящик», который у нас лучше, чем у конкурентов. И на вопрос «Чем именно лучше?» всегда дается один ответ: «Чем у конкурентов!». Я не буду называть тех, кто подобным грешит. Думаю, те кто реально работает с нужным уровне их и так знают.
Вообще идея снять лапшу с ушей, включить режим познания (и сомнения) она очевидна. Ну очевидно же, что Apple, которая лицензирует ядро ARM, никак не может заставить его работать в разы быстрее, нежели конкуренты. Почему многоядерные ARMы для промышленных железок (да и для телефонов) очень часто содержат разнородные ARMы (часть ядер 64 разряда, часть 32, а в довесок еще и какой-нить Cortex-M)? Ведь если верить комментариям здесь Apple нашла
Так что про «какую-то ахинею» и «вступление» я ничего не скажу. Кроме того, что уже сказал. А вот про aARM64 скажу. И, пожалуй, даже признаю свою неправоту. Впрочем, ведь и вы, и остальные прекрасно поняли что имелось в виду. Увы, да. Вытащил «местечковый сленг» на глобальный уровень — ошибка признана.
Простите, но вы несёте херню тоннами.
Я, например, прекрасно помню ARM926-EJS (на котором Intel и отказался от ARM, решив сосредоточится на x84/x64 продав свою серию PXA). Вполне себе предшественник A7.
Примерено так же как VIA C3 предшественник Intel Core. Из общего у них только то, что их системы команд (разные) были разработаны в холдинге ARM.
Вообще, господа жонглирующие терминами «микроахитектура», а расскажите мне серому (лучше в виде статьи) чем же микроархитектура отличается от макроархитектуры?
То, что принято называть "архитектурой" — это система команд. Она накладывает некоторые ограничения на то, как может быть спроектирован процессор, но не является определяющей.
А вот внутреннее устройство CPU определяется микроархитектурой. Ссылки найдёте в сносках, это настолько общепринятые понятия, что ваше с ними незнакомство выглядит как минимум странно.
Этакий «черный ящик», который у нас лучше, чем у конкурентов. И на вопрос «Чем именно лучше?» всегда дается один ответ: «Чем у конкурентов!». Я не буду называть тех, кто подобным грешит. Думаю, те кто реально работает с нужным уровне их и так знают.
Во многом, микроархитектуры разных производителей действительно являются чёрными ящиками, поэтому и существуют исследования, вроде того, что я приводил ранее — чтобы понять, как же на самом деле устроены процессоры и чем одни отличаются от других.
Ну очевидно же, что Apple, которая лицензирует ядро ARM, никак не может заставить его работать в разы быстрее, нежели конкуренты.
Они не лицензируют ядра у ARM. Они лицензируют систему команд AArch64, которая была создана во многом под их же влиянием.
Начиная с A6 Apple строит процессоры на своих ядрах. Их разработка началась с покупки компании P.A. Semi в 2008 году, а затем Intrinsity в 2010.
Айфоны с A7 — первым 64-битным ARM процессором в мире — были выпущены на прилавки ещё до того, как ARM Holding завершил проектировать свои референсные ядра "на бумаге", что для остальных производителей ARM решений было серьёзным потрясением.
Почему многоядерные ARMы для промышленных железок (да и для телефонов) очень часто содержат разнородные ARMы (часть ядер 64 разряда, часть 32, а в довесок еще и какой-нить Cortex-M)?
Покажите мне "разнородный" процессор с ядрами разной архитектуры.
Обычно используются ядра с разным энергопотреблением — для разных задач. В M1 есть 4 производительных ядра — для тяжёлых вычислений и 4 энергоэффективных — для служебных процессов, нетребовательных потоков, фоновой работы в режиме "сна".
Intel, кстати, в эту же сторону наконец пошёл — смотрите на Lakefield и Alder Lake.
Все остальное… Нет, все же я остаюсь при своем мнении. Есть архитектура чипа, узла, системы, здания, города… С разных слоев приставка микро- будет обозначать разное. А раз так, то ссылка на «общепринятое» не канает. Общепринятое — это архитектура. С уточнением, при необходимости, о том какого именно узла архитектура. Остальное те же жаргонизмы.
Как, впрочем, и взгляды на жизнь и историю вычислительной техники. Впрочем, про критический взгляд я писал выше. Мне больше добавить нечего.
Смотрите. И уж поверьте — он далеко не единственный.
Cortex-A53 и Cortex-A72 имеют абсолютно одну и ту же архитектуру, просто второй сильно "жирнее" по производительности и потреблению. А 2xCortex-M4F вообще являются тут не CPU ядрами, а просто дополнительными контроллерами, которые могут выполнять разные служебные задачи, и не участвуют в выполнении основного потока инструкций CPU.
Вопрос ведь был не «что сделано»? Вопрос был «почему сделано»? И больше того — почему сделано именно так? И про М1 та же ерунда. Я же пытаюсь заставить вас копать глубже и уже начать хоть как-то открывать «черные ящики».
Для меня «черным ящиком» является конечный транзистор. VHDL/Схемотехника узлов — прилично заляпанной схемой, из которой все равно понятна общая суть. Ровно то, чего добивается ARM, держа свой developer сайт. А сама система… Всего лишь одной из многих систем. Хоть и очень удачно получившаяся. А где ваши «черные ящики»? И имеет ли смысл при таком раскладе продолжать?
К слову, системный и прикладной слой у Apple для меня тоже довольно серьезный «черный ящик». Я могу предположить, что там есть кое-что от UEFI в нижнем срезе. Могу сказать что корни BSD в ядре разглядеть тоже можно. Но в более-менее значимых деталях не владею вопросом. Это просто для того, чтоб вешки расставить…
Вопрос ведь был не «что сделано»? Вопрос был «почему сделано»? И больше того — почему сделано именно так? И про М1 та же ерунда.
Я вам в предыдущем сообщении писал, почему это сделано. Если для вас такая структура процессоров до сих пор загадка, и мифические гибридные процессоры с ядрами разной битности на каждом шагу встречаются, то, боюсь, нам тут нечего дальше обсуждать.
Я же пытаюсь заставить вас копать глубже и уже начать хоть как-то открывать «черные ящики».
Ну давайте, покажите как открыть "чёрные ящики" M1.
На каких принципах там основан предсказатель ветвлений, который стабильно обходит на 20-25% конкурентов от Intel?
Какие алгоритмы ренейминга регистров позволили им успешно утилизировать 8 декодеров?
Как именно они меняют на лету модель памяти с расслабленной (ARM) на более строгую (x86), и не ловят рассинхронизаций кэшей или замедлений?
VHDL/Схемотехника узлов — прилично заляпанной схемой, из которой все равно понятна общая суть. Ровно то, чего добивается ARM, держа свой developer сайт.
Общая суть всех процессоров довольно понятна, они все не очень сильно различаются по набору крупных блоков. Дьявол в деталях.
Есть архитектура чипа, узла, системы, здания, города… С разных слоев приставка микро- будет обозначать разное. А раз так, то ссылка на «общепринятое» не канает. Общепринятое — это архитектура. С уточнением, при необходимости, о том какого именно узла архитектура.
Вот вам ссылка на то, как именно определяются понятия "архитектура" и "микроархитектура" для процессоров, от самого ARM Holding: https://developer.arm.com/architectures/cpu-architecture
Можете посыпать голову пеплом.
Вы или читать не умеете, или просто юродствуете, не желая признавать свою неправоту.
The CPU architecture defines the basic instruction set, as well as the exception and memory models that are relied upon by the operating system and hypervisor.
Архитектура в широком смысле: AArch32 (aka ARM — 32-битный набор инструкций и AArch64 (aka ARM64) — 64-битный ISA. В более узком смысле обозначается конкретная версия архитектуры, например: ARMv7-A, ARMv8.6-A.
The CPU microarchitecture determines how an implementation meets the architectural contract. The microarchitecture defines the processor's power, performance and area by determining the pipeline length, levels of cache and so on.
Микроархитектура — устройство конкретного ядра/процессора, реализующего некоторую версию архитектуры. Примеры: Cortex-X1, Firestorm/Icestorm.
А RISC — это общие принципы, которыми на словах руководствовались разработчики архитектуры.
А где же революционная микроархитектура Apple о которой так много говорили большевики немного выше?
В третий раз привожу ссылку на разбор микроархитектуры Apple: https://www.anandtech.com/show/16226/apple-silicon-m1-a14-deep-dive/2
Вообще, господа жонглирующие терминами «микроахитектура», а расскажите мне серому (лучше в виде статьи) чем же микроархитектура отличается от макроархитектуры?вам выше объяснили. Правда, кажется кто-то не хочет самообразовываться, а просто троллит
Вообще идея снять лапшу с ушей, включить режим познания (и сомнения) она очевидна. Ну очевидно же, что Apple, которая лицензирует ядро ARM, никак не может заставить его работать в разы быстрее, нежели конкурентызаставили же. Не, в теории конечно же другие производители могут сделать чип не хуже а то и лучше чем apple, разумеется. На практике однако…
Вопрос в том удастся ли добиться такого баланса для серверных решений остается открытым. Apple туда вроде не очень рвется, у остальных не сказать что очень хорошо получается.
Сугубо мое мнение — не факт, что вообще получится. Только дело не в том, что мне вещает Viknet А вот если ему интересно в чем именно дело — добро пожаловать в разработчики планировщик для сложных ARM систем. Только порог вхождения там довольно серьезный. И с разговорами о «предсказателе ветвлений, который стабильно обходит на 20-25% конкурентов» там особо делать нечего. С лучшем случае посмеются, припомнив недавнюю шумиху вокруг Spectre (она ведь и ARM'ов касалась, хотя огреб в основном Intel).
Впрочем, да — разделение на архитектуру и микроархитектуру там ближе к тому что говорит он и все, кто пытается меня образумить. Но опять — это взгляд с позиции разработчиков ядра.
Вопрос лишь в том, а чего так слабо остановились. Всего-то 2013 год. Я, например, прекрасно помню ARM926-EJS
Какое отношение ARM926 имеет к микроархитектуре Cyclone? Никакого.
Даже Apple A6 не связан с A7 в микроархитектурном плане.
А Apple A5 никак не связан с A6. A5 был лицензирован у ARM (Cortex-A8), A6 в свою очередь разрабатывался в Apple.
В принципе пойдет и официальная документация ARM.
Архитектура описана в ARM ARM (Architecture Reference Manual)
developer.arm.com/documentation/ddi0487/latest
Он не описывает характеристики конкретных чипов.
А вот описание конкретной МИКРОархитектуры Cortex-A72
developer.arm.com/documentation/uan0016/a
«Cortex-A72 microarchitecture»
чем же микроархитектура отличается от макроархитектуры? Есть ли миддлеархитектура
С какой целью вы юродствуете?
Не похоже что вы хотите заполнить пробел в знаниях.
Этакий «черный ящик», который у нас лучше, чем у конкурентов.
Вам уже давали ссылку на анализ микроархитектуры M1.
Ну очевидно же, что Apple, которая лицензирует ядро ARM
Ну-ка давайте, расскажите, какое именно ядро ARM лицензирует Apple,
и на основании чего вы сделали такие выводы?
:)
Посыпаю. Попутно задаваясь вопросом — хорошо, у ARM архитектура RISC, а микроархитектура — это ее реализация глазами ARM. А где же революционная микроархитектура Apple о которой так много говорили большевики немного выше?
Ну это уже юродство совсем на грани.
RISC это просто подход к проектированию архитектур.
ARM это АРХИТЕКТУРА — просто описание команд и интерфейсов.
Микроархитектура — устройство конкретного ядра, т.е. Cortex-xx, Apple Ax и т.п.
Для меня оба этих момента критичны. Так что вопрос не столько в надежности, сколько в возможности увеличить объем. Хотя… Ремонтопригодность тоже дело не последнее.
При этом удвоение памяти и флешки относительно базовой версии, чтобы получить систему хотя-бы немного с запасом, практически удваивает цену.
Получается, что лучше брать версию на 16GB оперативной памяти, и минимальным размером флешки. А систему ставить на внешний диск, который и дешевле, и заменить в случае износа можно.
корпус. в этот корпус влезает thin mininitx. это дает кууучу портов, проц аналогичной и более мощности и цену приятнее. а захотел старый превратить в роутер- поставил затычки за 500р, места по вкусу и сетевуху свежую.
эти убл**ки "радеют" за экологию, но делают одноразовые девайсы.
кстати, них никому не продают свои процы. конкретные монополисты. их давно вздрючить надо на несколько годовых выручек с увольнением всех топ мереджеров и тп.
заметить тут еще. что они могли сделать размером с 2.5hdd диск + кулер в толщину. но попаскудились и не сделати. и даже там бы вместились m.2 пара другая штук.
эпл очередной раз показала паскудную свою сторону.
AVX не работает в Rosetta 2 вообще, но на этот случай почти во всех программах/библиотеках есть фоллбэки на SSE, т.к. не все даже современные x86 процессоры поддерживают AVX.
SSE вплоть до последних версий практически целиком транслируется в нативный NEON и выполняется сравнительно быстро.
Проблемы с производительностью в основном с приложениями, активно использующими JIT — браузеры, Electron-based, виртуальные машины языков (JVM, Node.JS) — в этом случае Rosetta вынуждена переключаться на эмуляцию x86.
К счастью, большая часть этого добра уже есть в нативных версиях.
И AVX тоже не от нечего делать придуман, он прирост скорости даёт очень заметный на некоторых задачах. Сейчас оно именно так и работает — через флаги процессора откатывается на SSE и работает через SSE. Но SSE в x64 тоже, есть мнение, что быстрее чем у M1 так как легаси там нет, а денег в оптимизацию вбахано от души.
На данный момент на топовых ARM NEON проигрывает SSE от мейнстримовых Интелов от 3 до 10 раз. Тупо за счёт бОльших частот и бОльшего числа вычислительных блоков у x86.
AVX же на некоторых задачах это ещё +50% от SSE. А AVX512 в случае преобразования типов в некоторых задачах, как a понимаю, вообще даёт кратный прирост в скорости и творит совершенно невероятные чудеса.
В плане векторных инструкций у NEON паритета с x64 вообще на горизонте не предвидится никак.
Хех… SSE какой? Их тоже немало. Очень интересно, что они там в доступных расширениях процессора в эмуляторе отвечают.
1) Основная часть Rosetta 2 не эмулятор, а AOT-транслятор.
2) Поддерживается всё, вплоть до SSE4.2, оттранслированное приложение получит вот такой ответ:
machdep.cpu.features: FPU VME DE PSE TSC MSR PAE MCE CX8 APIC SEP MTRR PGE MCA CMOV PAT PSE36 CLFSH DS ACPI MMX FXSR SSE SSE2 SS HTT TM PBE SSE3 PCLMULQDQ DTSE64 MON DSCPL VMX EST TM2 SSSE3 CX16 TPR PDCM SSE4.1 SSE4.2 AES SEGLIM64
Но SSE в x64 тоже, есть мнение, что быстрее чем у M1 так как легаси там нет, а денег в оптимизацию вбахано от души.
Это у ARM64 и современного NEON нет легаси — они были разработаны с нуля меньше 10 лет назад. А вот на x86 приходится жить с большими диапазонами опкодов, которые уже не переиспользовать, и переменной длиной команд.
На данный момент на топовый ARM с NEON проигрывает SSE от мейнстримовых Интелов от 3 до 10 раз. Тупо за счёт бОльших частот и бОльшего числа вычислительных блоков у x86.
В случае с M1 это уже не так.
А AVX512 в случае преобразования типов в некоторых задачах, как a понимаю, вообще даёт кратный прирост в скорости и творит совершенно невероятные чудеса.
Не творит он чудеса. При его использовании приходится ронять частоты, и я неоднократно видел упоминания, что версия с AVX2 из-за этого часто получается быстрее. Ну и отсутствие поддержки в AMD процессорах немного ограничивает применимость.
На M1 для многих подобных задач можно использовать матричные AMX инструкции, и получать ещё более впечатляющие результаты.
В плане векторных инструкция у NEON паритета с x64 вообще на горизонте не предвидится никак.
А для масштабных вычислений уже есть гораздо более универсальный и расширяемый набор SVE-инструкций, который реализован например в Fujitsu A64FX (используется в быстрейшем на текущий момент суперкомпьютере).
www.phoronix.com/scan.php?page=news_item&px=Linus-Torvalds-On-AVX-512
Apple сделала устройство, которое преподносит пользователю что-то новое и непривычное, но не отбирает старое и привычное
А можно раскрыть мысль? Что же такого нового может принести мне, как обычному пользователю, м1?
позволяя запускать приложения, созданные под другую архитектуру.
Может конечно на Arm у Apple все изменится кординальным образом. Но на данный момент на intel — все не очень радужно. Например, при переходе на Bigsur часть софта отвалилась
Что же такого нового может принести мне, как обычному пользователю, м1?
Качественный скачок в производительности процессоров Интел и АМД после пинка под зад от Apple ))
Например, при переходе на Bigsur часть софта отвалилась
А на Catalina не вылетали ли на этом софте предупреждения что обратитесь к разработчику за обновленной версией а то могут быть проблемы?
А можно раскрыть мысль? Что же такого нового может принести мне, как обычному пользователю, м1?
Ну, например, ноутбук весом чуть более килограмма и с автономностью до 20 часов. Я могу ошибаться, но таких предложений на рынке я еще не видел. При этом производительность у него не на уровне печатной машинки (даже 4к можно обрабатывать вполне себе сносно) и прекрасный экран.
Например, при переходе на Bigsur часть софта отвалилась
К этому можно относиться по разному (так как у каждого человека свои задачи) но Apple достаточно легко расстаётся с legacy. В этом есть и минусы, бесспорно. Но для рядового пользователя это скорее плюсы, на мой взгляд.
Но активное охлаждение в новом маке на м1 — моветон.
Здесь кто-то делает железо, кто-то софт, и договорится им очень тяжело будет (вспомните внедрение USB шины в PC), пока железо появилось, потом оказалось что — нужна новая Windows 2000, вместо NT, чтобы USB пользоваться. А Apple просто выкатила IMac с USB, выкинув все старые порты для клавы\мышки
Но активное охлаждение в новом маке на м1 — моветон.не совсем. Под продолжительной нагрузкой M1 в MBA начинает троттлить (роняя перф процентов на 15), т.е. какое-то активное охлаждение кому-то для его задач может и понадобиться. А текущее решение является оверкиллом скорее всего потому, что apple наверняка не хотели вводить редизайн корпусов параллельно с новыми чипами.
А текущее решение является оверкиллом скорее всего потому, что apple наверняка не хотели вводить редизайн корпусов параллельно с новыми чипами.
Предположу что ожидаемые 16+4 и выше более мощные камни будут требовать нормального охлаждения, а делать под разные процессоры разные корпуса было бы странно.
А вот в дополнение к рабочей станции на линуксе этот аймак для работы с фото, видео и прочим медиа очень интересно выглядит. И цена адекватная.
У меня PHPStorm, Фотошоп, Три браузера с десятками страниц, Докер (Постгрес, и веб сервера внутри) постоянно открыты, я уж не говорю про мелочевку типа терминалов, почтовых клиентов, Pages и т.д. — хватает 8Гб оперативки на iMac 2014 года.
А можете скриншот сделать, если не трудно? А то обычно, когда так говорят, оказывается что в свопе еще 20гб+ лежит.
Потому что домашний десктоп оплачиваю я сам, не работа, и, скорее, по остаточному принципу — хочется иметь возможность за недорого его немного расширять.
Вариант «купи себе внешний hdd» для меня не кажется разумный, машинка небольшая, обвешивать ее грозью коробочек не улыбает — тем более, что USB-диски имеют тенденцию контакт с кабелем терять…
Получается как-то странно: «у нас есть хорошая конфига задорого, а есть вариант для
1. Качество отличное (я и не против)
2. Вы выбрали не ту конфигу (я не выбирал, я увидел на фото, что SSD теперь распаян — т.е. замена в принципе не обсуждается)
3. Выберите правильную, и не будете жалеть (согласен; но речь не о том, чтобы выбрать правильную конфигу изначально — а о том, чтобы выбранную раз конфигу можно было малой кровью нарастить; я не говорю про замену проца или на запихивание в тот же объем еще видекарты, которую просто некуда деть, а именно о «базовых» вещах: ОЗУ и диск)
4. Техника ликвидна, так что все пучком.
Вот с последним странно получается. Я слышал и не вашу трактовку, а несколько другую, экономическую: а) техника эпл дорогая, её не хотят продавать задешево, так что держат цену, б) в то же время другие желающие, не хотящие за это платить цену нового устройства, и видя, как ухудшаются новые устройства, радостно покупают более старые, которые хоть как-то можно было апгрейдить.
Да, хорошую технику (не хороший Мак, а вообще — «технику») нужно поискать. Даже у тех, кто старается делать ее, и то бывают косяки (и даже часто бывают). Но в последнее время вижу переход от подхода «хорошая машина имеет шанс расшириться» к «продай старое, купи новое, продолжай платить за право хранить свои данные небезопасно, не обязательно надежно и снаружи своего компа» — это немного беспокоит.
Да что там: сегодня объем флешки в том же iphone составляет от 50 до 100% от размера жесткого диска в иных конфигах ПК от эпл. Это при том, что это 128-256 Гб составляют в цене телефона и компа приличный кусок. Облако на тот же размер тоже небесплатно. При этом единственный вариант починить половину софтовых проблем ифона, по мнению поддержки — «сделать бекап, сбросить телефон, восстановить телефон». Другими словами, косяки софта эпл (при том, что железо и софт оплачены) нужно чинить, тратя еще свои деньги — апофеоз поддержки, которую при продаже техники обещают как «бесплатную», правда? Как мы понимаем, варианта добавить в свой комп купленный отдельно жесткий диск при таком раскладе для эпл оставлять просто глупо — и что, как мы видим, они целенаправленно делают?
В общем, спасибо за совет, но расширять размер диска на компе, продавая и покупая комп — это мне кажется перебором.
А для повседневной работы вам 2 терабайт не хватает
Вы думаете, все покупают исключительно модели с 2 Тб дисками? В таком случае, Вы очень смелый мечтатель — либо любите все с ног на голову переворачивать.
Аппетит приходит от потребности, правильно? Человек, скажем, покупает себе комп с минимальным диском, а позже видит необходимость увеличить объем хранения. Что ему делать? Если в машине установлен заменяемый диск (помните это время — эпл тоже так умел!), либо место для второго диска — да не вопрос, несколько движений руками, и юзер доволен, затратив условные 300 долларов, два часа времени, и оставшись «при своем» в смысле настроенной системы и вообще своего («родного») компа.
Вы же мне предлагаете, очевидно, либо доплатить на этапе конфигурации ПК долларов так 800 (это чтобы сдать штатный SSD на 256 и поставить вариант на 2 Тб — т.е. сам диск стоит скорее 900), при базовой цене «миника» в 699? В таком случае, как мне, заказывая себе комп, угадать, сколько мне от него нужно будет через несколько лет, и как не переплатить полторы цены компа за апгрейд одного лишь хранения?
Получается, только «обжёгшись» на первой покупке (т.е. купив что-то, что окажется «маловатым»), можно сказать себе — нужно было брать побольше. В вашей логике — продавать на вторичном рынке, покупать новый (или тоже б/у?).
Основной косяк — это впаянный диск. Ни переставить в другой комп (скажем, я проапгрейдил машину, а диск из старого миника бы вставил как второй диск в новый: было бы здорово, но — физически никак!), ни заменить на другой, ни расширить путем замены же…
Думаю, это искусственное ускорение устаревания модели, поданное под соусом миниатюрности и улучшения прочих потребительских свойств.
За $1,699.00
Мне кажется вполне справедливая цена. Люди берут.
Это тараканы в голове.
Вот с таким изложением и я согласен. А если по делу, то сделать из модульного компьютерика (при начинке на уровне ноутбука не «компьютер» он не тянет) — немодульный, да еще добиться, чтобы покупатель был не просто готов отдать 1700 долларов, но и доказывал бы всем, что это нормальная цена — эплы кругом молодцы!
А что «люди покупают»… «У нас и собаки горчицу едят», тут ведь от угла зрения и подачи многое зависит.
Миник хорош под многие задачи, но вот немодульность, решения которой, кроме продать-купить Вы не предложили — это нехорошо. Раз Вас это не напрягает, то — рад за Вас. Но я бы предпочел иметь пару слотов под ОЗУ, сменный, переставляемый в другой ПК, диск, и место для другого.
эплы кругом молодцы!вы рассматриваете технику apple только с точки зрения расширяемости, которая нужна от силы 1% пользователей. Вот вы принадлежите этому высокомерному меньшинству и имеете на то право. Не хотите брать устройства с запаянными RAM и диском — голосуйте своей денежкой, покупайте модульное. Ну подумаешь по паре десятков других характеристик уступает, вам ведь это всё не важно, верно?
подумаешь по паре десятков других характеристик уступает
Ну уступает, так его и назвали так — «Mini» *смайлик*
А если серьезно, то, повторюсь, не вижу причин (кроме
А какой % от аудитории желается его расширения… это у Вас ошибка выжившего: аудитория и сложилась из тех, кому расширение не важно, и кому сумма в полторы сотни тысяч руб. кажется небольшой за такой уникальный аппарат. Те же, кто считает деньги, или не любит мак, или не хочет остаться с нерасширяемым ПК, из которого даже диск не вытащить, случить что с этим ПК (т.е. вариант «сгорел комп -> купил себе новый, переставил диск -> живи с данными дальше» в принципе нереализуем) — они в «аудиторию» не входят, т.к. заранее по каким-то из этих критериев миник не стали покупать.
P.S. Это как с блоками питания и наушниками в последних iPhone — цена на изъятое из поставки не уменьшилась против ежегодно-привычной, но аудитория (особенно умиляет, что часть обозревателей — с восторгом!) это проглотила.
Те же, кто считает деньгивполне могут купить более дешевый компьютер. Опять же, устройства apple предназначены в первую очередь для рынков стран первого мира, где $700 это менее трети средней зп, а не более трех.
или не любит максубъективно не любите мак — не покупайте, в чем проблема? Или apple должны были заставить пользователей покупать их технику?
или не хочет остаться с нерасширяемым ПК, из которого даже диск не вытащить, случить что с этим ПКповторюсь: подавляющее большинство пользователей не думает об этом. И не надо мне рассказывать про ошибку выжившего, тем более на хабре, где собрались технари, из которых действительно куда больший процент умеет обращаться с техникой
P.S. Это как с блоками питания и наушниками в последних iPhone — цена на изъятое из поставки не уменьшилась против ежегодно-привычной, но аудитория (особенно умиляет, что часть обозревателей — с восторгом!) это проглотилареальная причина в том, что 5G чипы от qualcomm, который по сути монополист, стоят больше чем эти зарядник + наушники + 4G чип.
Про Хабр Вы как по своим комментам прямо прошлись — здесь явно больше 1% аудитории захотело бы что-то проапгрейдить в компе, и не все (далеко не все) готовы от себя, от семьи оторвать 170 тыс на довольно сильно ограниченный комп. Ну серьезно, давайте не будем.
Мой поинт ровно в том, что эпл выкорчевала возможность расширения, которая раньше была, и это не рост, это падение, но, как в анекдоте, получаем строчку в счете «Если прокатит» — и
Про чипы 5G лично не смешно читать. Никогда не видел толп на улице, скандирующих «эпл, мы заждались 5G-поддержку!» 5G в айфоне — самая незаметная фича, никак, смею думать, на продажи не повлиявшая. Теперь же мы имеем разброс показаний от эпла: 1) то они выкинули БП и наушники, потому что и так этого на руках много (только непрочные шнурочки Lighting как распадались, и были нужны, так и остаются востребованы), то 2) то выкинули из-за экологии, то 3) у них в привычных тысяче долларов не хватало на 5G-чип, и они экономили на чем могли, в результате БП себестоимостью в полбакса спас миллиардный эпл…
А покупать или нет мне что-то — последнее время на экосистему эпл смотрю не в стиле «она растет, и будет только лучше!», а именно как «когда и существующее уберут?» Вот Вы мне в полтретьего ночи по МСК доказываете, что эпл торт (а я всего лишь намекаю, что дороговатый для такого качества взбитых сливок), но через год-два, есть шанс, что мы этот вот миник будем с ностальгией вспоминать, потому что новый миник будет еще менее адекватным, и окажется
Не знаю, может, встроят таймер времени работы в сутки, на pro моделях его можно будет настраивать на величины до 24 часов (но все, что сверх 10 часов в сутки, потребует покупки подписки), а на не-pro будет жестко суточные 9 часов, и все.
Хорошей ночи!
Тут и в стране первого мира з/п не хватитвы бы хоть погуглили какие там зарплаты в странах первого мира, ей богу.
Мой поинт ровно в том, что эпл выкорчевала возможность расширения, которая раньше была, и это не рост, это падениетак делает вся индустрия, но виноваты видимо только apple.
Про чипы 5G лично не смешно читать. Никогда не видел толп на улице, скандирующих «эпл, мы заждались 5G-поддержку!» 5G в айфоне — самая незаметная фича, никак, смею думать, на продажи не повлиявшаяя так погляжу вам виднее что там влияет на продажи и вам решать кому что нужнее, 5G или расширяемый SSD…
у них в привычных тысяче долларов не хватало на 5G-чип, и они экономили на чем могли, в результате БП себестоимостью в полбакса спас миллиардный эпл…хочется вам посоветовать почитать книжки по экономике. И учтите: у эппла не самая высокая маржа в индустрии. Но вам ведь не интересно стоит ли продукция apple своих денег, вы пытаетесь из отсутствия apple в бюджетном сегменте натянуть вывод что их продукция слишком дорогая, совершенно игнорируя что они предлагают за эти деньги.
А покупать или нет мне что-то — последнее время на экосистему эпл смотрю не в стиле «она растет, и будет только лучше!», а именно как «когда и существующее уберут?»это всё субъективно. Вот я смотрю на мнение человека, который явно не разбирается, и думаю, имеет ли смысл пытаться ему что-то объяснять?
А жадность недооценивать: они молодцы, они продают не технику, а легенду, и «веру в технику». Косяков что в железе, что в макоси хватает (да где их нет), но техника неплохая (на любителя).
Про жадность чаще вспоминают, когда идут с эплом в ремонт: в России ремонтом заведуют партнеры, сам эпл и не найти (даже русскоязычная поддержка не в России), есть какое-то юрлицо, и вертит ОЗПП как хочет — я бы так сказал, что миллиардная корпорация странно выглядит, стараясь разом и к покупателям после покупки задом повернуться, и продать следующую
Но, повторюсь — им же это удается!
Вы крайне недооцениваете жадность этих утырковВы попробуйте к какому-нибудь dell xps или lenovo carbon x1 так же память с диском докинуть, и примерно те же самые цифры получите. Это не жадность, это у примерно всех производителей так.
Во-первых, это была осознанная стратегия — чтобы все обзоры сконцентрировались не на внешнем виде, а на изменениях архитектуры.
А во-вторых, вы забываете про 2xThunderbolt4 и 2xUSB-A, каждый из которых может обеспечивать 10-15 Вт.
Просто так перепроектировать и заново сертифицировать давно беспроблемно работающий блок питания, чтобы он вместо 180 Вт выдавал только 120 — неразумная трата средств, учитывая, что следующие поколения Mac Mini почти гарантированно будут в других корпусах.
Mac Mini на M1: взгляд изнутри