Как стать автором
Обновить

Комментарии 204

> Как вы думаете, сможет ли архитектура ARM полностью вытеснить x86-64?
Никогда. Эпл проговаривает мантры про пост-писи эру уже десятилетие точно, но получается, на самом деле, не очень: на выходе получается готовое, но мало с чем совместимое устройство, не подлежащее модернизации, оттого и доля у них — около 10% по миру. Им хватает, они довольны.

Если бы они горели желанием захватить весь рынок, то применялись бы совсем другие методы.
> Как вы думаете, сможет ли архитектура ARM полностью вытеснить x86-64?
Эпл проговаривает

Но ведь ARM это не только Apple… а как же микрокомпьютеры? Серверы на ARM?
Это нишевые устройства, а не весь рынок в целом, который покрывает архитектура x86/х86-64.
Ну так вопрос в перспективах, а не в сегодняшнем дне. С точки зрения перспектив — не вижу каких то особых преград для ARM в том же сервером сегменте. Какая по большому разница, в чём крутить распределённое приложение в тех же контейнерах, если производительность ARM будет как минимум не ниже, чем x86-64?

Да и для десктопов та же ситуация — мне на самом деле не ясно — чего ждут производители? Винда под ARM давно есть, учитывая, что всё-таки подавляющее большинство пользователей ПК используют его не в профессиональных целях, а для потребления контента — почему нет? Да даже видео/фото/музыкальные редакторы довольно высокого уровня есть на мобильных платформах, работающие на том же ARM и которых достаточно большинству пользователей.

Мне кажется здесь будет история, как было в своё время с металическими корпусами ноутов — первыми и довольно долгое время их делала только Apple, а в последние годы это стало обычным делом и для остальных производителей. Так и тут — как остальные производители увидят возможности ARM от Apple и что она его использует для десктопов и ноутов — остальные производители ПК наверняка так же начнут массово выпускать аналогичные модели, и рынок наполнится не только тонкими клиентами.
Зря вы так. Мы сразу перевели все свои приложения на ARM сервера (AWS). Получилось неплохую экономию финансовую получить. При этом особой разницы на какой архитектуре крутить приложение в контейнере — нет.
Тем более что можно строить нативные образы под ARM на x86 — с помощью qemu-arm.
Мы так написали довольно сложный продукт для RaspberryPi.
Это другие ниши. На серверах например давно линукс господствует — а на десктопах как был так и остался 2%.
Какая связь между архитектурой процессора и ОС? Linux под ARM давно есть, как и Windows.
Никогда

Откуда такая уверенность? Какие преимущества есть у x86-64 перед ARM? Возможность легаси разное запускать, ну так оно далеко не всем нужно.

> Откуда такая уверенность?
Покажите писюк на ARM, да такой, чтобы все слотовые комплектующие на уровне драйверов подходили. Пока что мы видим, наоборот, устройства, не позволяющие себе слоты расширения.

> Какие преимущества есть у x86-64 перед ARM?
А какие преимущества есть у ARM перед x86-64?
Они зацепили нишу с планшетами и мобильными, а ПК, ноутбуки и игровые приставки никуда с x86-64 не делись. Преимущества эпла на ARM пока или невнятны, или платформоспецифичны.

Эти слоты нужны единицам процентов. Я реально плохо понимаю что мне в эти дырки пихать. Что уж говорить о простых пользователях, кому комп нужен чтобы в инете посидеть.

> Я реально плохо понимаю что мне в эти дырки пихать
Видеокарту? Звуковую карту с нормальным ЦАП? первый/еще один NvME накопитель?

> Что уж говорить о простых пользователях, кому комп нужен чтобы в инете посидеть
эти ушли на ноутбуки, да, им, может, и не надо.

У меня всегда были стационарные ПК и потребности туда что-то воткнуть не возникало ни разу. Даже флешкой уже лет 5 не пользовался. И куча людей так же. Так что очевидно что Apple сделала очень правильный шаг и весьма вероятно следующим моим ПК будет ПК от Apple.


Просто потому что я так и не нашел ни одной причины сидеть на всем этом легаси с кучей портов

Поддержу вас, я купил единственный раз WiFi карту на PCI-x, и то потому что не было провода проложено.
Звуковая карта устраивает большинство людей — встроенная, кто занимается музыкой — всё равно внешнюю покупают.
Так что Apple очень круто угадали с iMac — для дома очень хорошее решение, просто всегда было подороже, чем PC, но глядя — на текущие цены на рынке, мне mac-и не кажутся сейчас такими уж дорогими, тем более на ARM они стали ещё дешевле.
Единственное что огорчает в Apple — это отсутствие возможности самому заменить SSD.
Я в 2014 году, когда мне надоели шум вентилятора и провода под ногами — купил себе Mac Mini. И вот даже сейчас с него пишу — за все время заменил только жесткий диск на SSD (в модели 2013 это обычный 2.5 дюймовый SATA).
Видеокарту? Звуковую карту с нормальным ЦАП? первый/еще один NvME накопитель?

В случае M1 видеокарта есть на проце. Звук и так отличный — без шумов и наводок свойственных дешёвым ноутам/платам для PC.
Впрочем в ARM системы и так втыкается любая актуальная видеокарта.
Для Радеона дрова идут «из коробки», для Nvidia есть бета-версия.

Какие проблемы с NVMe? Он втыкается даже в игрушки с 96boards.

чтобы все слотовые комплектующие на уровне драйверов подходили

Ага, ведь если не 100% всех, когда либо созданных девайсов PCIe работает,
пользоваться ARM компом никак нельзя :)
Впрочем в ARM системы и так втыкается любая актуальная видеокарта.

Можно примеры?
Насколько я знаю в ARM как раз видеокарты не работают за очень редким исключением, видимо, специальных версий карт под арм.

"Специальные версии" — это интегрированные решения вроде Tegra, там свои заморочки.
А обычные карты от NVidia или AMD работают так же как с x86. Вот линуксовые бинарные драйвера NVidia под ARM32 и ARM64, у AMD драйвера в ядре.


Основная проблема с заведением карт под ARM — найти платформу с PCIe. Например, официальных Windows-on-ARM девайсов с PCIe/Thunderbolt пока не существует, поэтому и драйверов никто не собирал.

Дело не в драйверах, сами карты не очень то и хотят работать с чем-то кроме х86. Попробуйте найти именно практически рабочее решение на АРМ. Это будет не тривиально

Что значит "не хотят" и какая им вообще разница, кто по PCIe данные шлёт?


Попробуйте найти именно практически рабочее решение на АРМ.

Пожалуйста: Ampere eMAG 8180. На выбор в комплекте есть разные варианты самых обычных GPU, и можно поставить любую свою карту.
Или вот более старый GIGABYTE ThunderXStation с банальной NVIDIA GeForce GT 710, а тут рассказывают, что тестировали с разными картами NVidia и AMD.

vbios под x86 написан, как я говорил это очень редкие исключения где сам производитель ГПУ пошел навстречу, обычно это АМД. Точно так же в приведённых примерах 1-3 адаптированных варианта. Есть множество примеров где карточки банально не хотят работать. Есть так же долгая попытка завести карту на последней малинке с PCIe. И из свежего на м1 эпловских не работают егпу, не смотря на полноценный болт.
vbios под x86 написан

Это давно решено на уровне ОС: https://news.ycombinator.com/item?id=20401258


это очень редкие исключения где сам производитель ГПУ пошел навстречу, обычно это АМД. Точно так же в приведённых примерах 1-3 адаптированных варианта.

А список поддерживаемых карт тоже ни о чём не говорит?


Есть так же долгая попытка завести карту на последней малинке с PCIe.

Распаивая проводочки по плате и пытаясь добиться стабильного PCIe 1.0 x1? К тому же, по ссылке выше пишут, что в нём просто недостаточный размер Base Address Register, чтобы завести современную видеокарту.
В нормальных системах с полноценным PCIe x8 таких проблем просто нет.


UPD: В конце концов там всё упёрлось в драйвера контроллера


И из свежего на м1 эпловских не работают егпу, не смотря на полноценный болт.

Так драйверов нет. И, скорее всего, не будет — ради 0.5% пользователей entry-level моделей, которые хотят подключить eGPU, никто драйвера под ARM macOS писать не будет.

К тому же, по ссылке выше пишут, что в нём просто недостаточный размер Base Address Register, чтобы завести современную видеокарту.
В нормальных системах с полноценным PCIe x8 таких проблем просто нет.

там вроде как не в него упирается, по крайней мере для других ГПУ BAR хватало.

А список поддерживаемых карт тоже ни о чём не говорит?

Черт его знает о чем он говорит, парню который малинку заводил эти драйвера никак не помогли, с нвидиа вообще мало что находится.

Так драйверов нет. И, скорее всего, не будет — ради 0.5% пользователей entry-level моделей, которые хотят подключить eGPU, никто драйвера под ARM macOS писать не будет.

Да, кстати, об этом не подумал. Может так и есть
там вроде как не в него упирается, по крайней мере для других ГПУ BAR хватало.

Какие другие GPU заводили на Raspberry Pi через PCIe?


Черт его знает о чем он говорит, парню который малинку заводил эти драйвера никак не помогли, с нвидиа вообще мало что находится.

Я дописал апдейт, где поясняется, на чём остановился проект: https://twitter.com/domipheus/status/1175340360060612608
С архитектурой ARM это никак не связано — проблемы в урезанном PCIe-контроллере и/или драйвере для него.
Собственно, как я и говорил, основная проблема заведения GPU под ARM — найти нормальную плату с полноценным PCIe.

Я думаю, про слоты звучало так, Мак даёт вам производительность, но про апгрейд можно почти забыть. Я не совсем понимаю, логику, использовать ПК как мультимедиа, за 75к ( самый бич пакет ), просто это так ограничивает. В среднем люди железо берут на 5-10 лет. Мощности не сильно растут, цены кусаются. Не, яблочная продукция конечно славиться своей оптимизацией, но к примеру гарантия больше не та, что была, (сломался, выдали новый), а теперь жди как и все положено. В целом эта тема и подкупала больше всего. А если хочется поиграть, то вообще дело плохое, точнее бесполезное. Я знаю, на маках не играю, а если и играют, то страдают, во всяком случае есть знакомый, который ВоВ на маке гоняет. Проще говоря каждый будет топить, про то, кому что удобнее. Мне например удобнее работать в Adobe, чем Final cut, хоть и бесспорно скажу оптимизирован он шикарно. В целом, мне проще собрать обычный ПК, на современном железе, дешевле местами, с видеокартой ток проблема. А так компактность, наверное основной фактор Мака ну и выделение TDP. Больше плюсов для себя не вижу. ИМХО.
игровые приставки никуда с x86-64 не делись.


Кхм, до PS4/Xbox One ни одна из консолей не использовала x86-64. А Nintendo Switch как раз работает на ARM.
Теперь уже есть Raspberry Pi Compute Module 4 с одни PCI-Ex1 слотом.
На сайте pipci.jeffgeerling.com есть список устройств, которые в нем работают.
Но на своем ютьюб канале он как-то поинтереснее рассказывает, самое интересное по теме, наверное, это youtu.be/ikpgZu6kLKE (GPUs on a Raspberry Pi Compute Module 4!).

Пост-писи — это совсем не про архитектуру процессора, а про то, что ПК сильно потеряли в важности для (домашних) пользователей после появления современных смартфонов, планшетов и облачных сервисов.


А полностью вытеснить x86-64 не получится ещё очень долго.
Да и не нужно.


А вот отжать долю рынка — запросто.

Кроме ARM, есть себе вполне конкурентноспособные MIPS и RISC-V.
А еще все, вообще, все забыли про PowerPC, на котором работал раньше Эпол.
будь powerPC конкурентоспособным, устройства apple бы до сих пор на нем и работали
Сейчас в эпоху деглобализации и патентных троллей «конкурентноспособность» может уйти на второй план, т.к. у Эпл инерция в виде пользователей Эпл, а также всегда есть возможность решить проблему экстенсивно.
Еще, кстати, я забыл про UltraSPARC — его тоже добавим в архив архитектур, которые можно магическим образом извлечь из кладовки.
Эпл достаточно большая контора, как ни крути, и это хорошо что большие конторы занялись вытеснением x86 архитектуры, по мне система команд x86 просто ужасна, костыль на костыле.
Хорошо что есть эмуляция старого процессора, ну подумаешь производительность чуть проседает. В век когда промышленные приложения пишутся на древней с накрашенными губами Яве, нечему особо удивляться. Всё равно к процессорной эмуляции добавиться ещё и программная. ARM архитектура кажется более стройной. А конечному пользователю важно чтоб его любимые программки работали, а если ещё и быстрее чем раньше, то вообще класс!
По синтетическим тестам выглядит действительно очень здорово
1742/7577, а к примеру мой младший iMac 17-го года выдаёт всего 835/3003, хотя конечно Radeon Pro 570 он проигрывает, но оно мне и не надо на самом то деле :)
но я пока опасаюсь Rosetta, хотя пока отзывов негативных по этому поводу и не так много, но хотелось бы попробовать. может когда новые imac'и выйдут — решусь :)

Плохо то, что SSD не заменяется. Фактически, первый компонент на вылет. Особенно, если судить по последним новостям. Так то производительности системы в целом — лет на 10 жизни, искусственно ограниченные временем жизни твердотельника.

Современные ssd морально устаревают раньше, чем расходуют ресурс. Конечно если не писать на них безостановочно.


А брак, в том числе и серийный брак, всегда есть.

У M1 маков это не так.

appleinsider.com/articles/21/02/23/questions-raised-about-m1-mac-ssd-longevity-based-on-incomplete-data

Подозреваю что причина в том, что из-за быстрого SSD и быстрой компрессии памяти своп на 8 гигах не чувствуется. А из-за общей скорости M1 маков их начали использовать куча юзеров с тяжелыми задачами, поэтому просто убивают SSD свопом раньше времени.

Выскажу предположение ято на топавых imac и mac pro мы увидим обычные можули оперативы поставленные в параллель с текущей системой памяти и на них ляжет своп.

Прикольная идея. То есть Unified memory остается, и есть неограниченный своп.
Действительно будет интересный вариант. Этакий L4 кэш, но работающий как основная память, а за ним DRAM как раздел для свопа. С учётом компрессии swap, может быть весьма интересный результат.
не чувствуется пока не увидишь оставшийся ресурс SSD
А при чем здесь SSD? Aquahawk предполагает, что под своп будет использовать не SSD, а оперативная память размещена в отдельных слотах, а та, что распаяна будет использована как обычная оперативная.

И если они так сделают это будет действительно, как минимум, интересно!
Очень быстрый своп и нет проблем с убиением SSD.

Какой смысл в свопе на ddr? Почему бы дополнительную память сразу не использовать по назначению?

Задержки до памяти в слотах будут немного выше, чем до on-package.
Но, скорее всего, память будет использоваться именно как память, просто ОС будет прозрачно перемещать активное приложение с данными в память поближе.

А в m1 чипы памяти стоят максимально доступного на рынке объема? Кажется поставить больше основной памяти дешевле, чем делать программно-аппаратный костыль.

Это не костыль. У разных людей разные требования к количеству памяти, поэтому для рабочих станций вроде Mac Pro имеет смысл память делать расширяемой. Но при этом memory-on-package в любом случае быстрее, и такая гибридная система может иметь смысл.

Ну так в них памяти очень мало, была бы минимальная конфигурация в 16гб то ещё можно было жить.
Потому что в m1 прямо на подложке с процом размещена быстрая память, ограниченного объёма. Они смогли запихать туда 16 гигабайт, очевидно что даже 256 туда не впихнуть, а тем временем в mac pro доступно 1.5 TB оперативы. И когда они захотят занять эту нишу, им нужно будет предложить очень много памяти. И я не вижу смысла отказываться от 16 быстрых на проце. А просто так, прозрачно прилепить память другой частоты и таймингов просто для расширения память не получится. Поэтому предполагаю своп на рамдисках.
В ПК стоит NVME SSD на TLC, бренд не важен.
SWAP на SSD включен практически сразу.
Записано 8.25Tb, с октября 2019. Заявленный производителем ресурс 320Tb.

Не хочу хвалить Windows 10, но вроде бы там есть аналог zram, который сжимает неиспользуемую память, однако остался момент с виртуальной памятью — если в Linux (насколько мне известно) её объем не зависит от swap, то в Windows объем виртуальной памяти равен физический + файл подкачки (он же swap.)
PS: с 2013года без постоянного HDD в ПК, начиная с Vertex 3, который недавно погиб при пересадке в ноутбук. Буду воскрешать.

Есть аналогичная информация и на 16гб, но у меня, например, такой проблемы нет. У меня в целом не самая большая нагрузка: два be в докере крутятся и два фронтенда открыты всегда. Докер кушает ~3-4гб ОЗУ, но общее потребление больше 12гб не видел ни разу.
Data Units Written показало 600гб за месяц (0%), из которых 400гб я сам записал


А в целом доволен как слон :)

Значит поменять накопитель захочется еще быстрее, а нельзя.

Эту мантру повторяют уже лет 5. А на деле, SSD были и остаются самыми ненадёжными накопителями в истории. Даже дискеты были надёжнее и предсказуемее. Только SSD может вечером рапортовать об отличном здоровье и большом запасе ресурса, а утром уже оказаться трупом без возможности восстановления данных…
А есть какая-то сравнительная статистика в подтверждение этих слов? Я не саркастически интересуюсь, а просто интересуюсь, правда интересно.

Мой личный опыт (полность не репрезентативный) говорит об обратном. Механики на моем веку померло предостаточно. Более пяти экземпляров точно (домашнее использование, сейчас не про работу). И еще ни одного SSD.

Первый SSD на 128 GB я купил, емнип, в 12-м или 13-м году в десктоп под систему, потом он перекочевал в один ноут, потом в другой и до сих пор коптит небо под ежедневным использованием, в общем и целом. Нотбук тот сейчас не у меня, статистику прям с него предоставить не смогу, но пока живой, это я точно знаю. Был еще на 256, где-то в 2015-м, с очень похожей судьбой, тоже все еще вполне живой, в ноуте, в данный момент теоретически переплывает атлантику в контейнере, до этого использовался ежедневно. И несколько других и того младше, про них особо смысла говорить пока нет. Я в общем дожил до того, что у меня на десктопе сейчас кроме nvme PCI-E gen4 ssd на 2тб нет других носителей и чувствую я себя прям прекрасно по этому поводу (во многом потому что ничего на этом пк не хранится полезного).
У меня тоже первый SSD на 128ГБ стоит на MacBook Air второго поколения. Ему уже больше 10 лет. И ничего, работает. Причём операционная система той версии, которая на нём была изначально установлена, Snow Leopard, ещё не была рассчитана на SSD.
Вот уже лет 8, наверное, как я во всю пользуюсь SSD. При чём пользуюсь, скажем так, не совсем правильно, для домашнего сегмента накопителей. И знаете что? В прошлом году выбросил свой первый SSD — Intel X25-M на 40Гб, когда менял старый файловый сервак домашний на новый. Проще было купить уже m.2 новый и не занимать лишний отсек в корпусе. Power_On_Hours там был на уровне его возраста — 7 лет. А вот у меня в iMac стоит уже старенький Samsung 850 EVO — Power_On_Hours — 21930 и менять я его собираюсь только по причине того, что хочется уже ещё быстрее.

Да, SSD мрут неожиданно и SMART не поможет определить «сколько ему осталось» как это было с HDD. Но это не говорит о том, что SSD плохие и/или ненадёжны, это говорит о том, что сломаться в любой момент может всё что угодно (как и HDD), и если вам важны ваши данные — всегда помните о резервном копировании.
Есть метрика от производителя, сколько гарантированно можно записать терабайт на накопитель без сбоев.
Сколько терабайт уже записано знает контроллер накопителя. Я пользуюсь оффициальной самсунговской тулзой Samsung magician, но наверняка есть и другие.
DWPD это же фиксированный показатель и никак не может сигнализировать о неисправности самих флёш модулей.

Это ресурс ссд. А сколько Вы из него потратили, и прочее просигнализирует например smartctl на линукс.


Прошли те времена когда в ссд умирал контроллер, или баг в прошивке делал данные нечитаемыми при отключении света.

Это ресурс ссд

т.е. ССД может умереть только при выработке своего ресурса исключительно? :)

баг в прошивке

да конечно :) только осенью вот был большой кипиш по этому поводу, да ещё и в серверном сегменте

Я не гарантирую конечно, shit happens )) но ссд уже вечность на рынке, по современным меркам. Они вполне надёжны. Как минимум в пределах гарантированного производителем ресурса. А дальше можно чекать смарт, если растёт кол-во плохих блоков то отправлять на пенсию в какой нибудь кэш. (На самом деле они способны вынести в разы больше чем гарантирует производитель, судя по endurance тестам)


Но скорее всего Вы гораздо раньше сами поменяете ссд потому что технологии прогрессируют еще быстрее

Я то с вами полностью согласен. Я за 8 лет ещё ни одного ссд не выбросил как умерший :) Но ключевое — shit happens
«Хуже всего то — что SSD внезапно смертен» (с) — перефразируя Воланда.

У меня 128Gb Crucial сдох так. Вечером ушёл с работы — всё было отлично, пришёл утром — комп висит — перезагрузили — винта нет… В сервисе даже никакой служебной информации с него вытащить не смогли, и сразу другой выдали…
Купил себе называется «подороже», по отзывам они были гораздо лучше ADATA, хотя более дешёвые ADATA — прекрасно работали у коллег и дальше и никаких смертей с ними не было…

У ADATA много брака. У коллег — ошибка выжившего.
Покупайте SSD, которые умирают gracefully (в редиме RO), если это важно, либо делайте бэкапы.


Если у меня умрет диск, мне не страшно — все рабочие файлы имеются в бэкапе, самая свежая версия — лежит в дропбоксе и на NASе, на NASе лежит образ системного диска.


Итого около получаса на восстановление — перекинуть диск\развернуть образ\восстановить данные из бэкапа (это для ноута, на десктопе все проще, там данные отзеркалены, так что если что, разворачивать из образа придется только системный диск).


PS поддержу некоторых писавших выше, что мое личное кладбище НЖМД имеет в себе порядка 4 могил, а SSD — ноль, при том, что их много (считая ноутбучные — в эксплуатации порядка 15 штук), пользуюсь ими давно и помногу. В офисе, кстати, еще десяток, и тоже все живые.

но ссд уже вечность на рынке, по современным меркам. Они вполне надёжны. Как минимум в пределах гарантированного производителем ресурса.

За последние 5 лет умерло два домашних ссд. Причем внезапно и безповоротно. Я думаю выработка по ресурсу у них была не более 10%. А так да — надежная технология )))

Берите ssd с пятилетней гарантией от производителя, а не нонейм в мире ssd вроде Cricial или ADATA с гарантией в 3 года. Intel и Samsung ещё не подводили.

У меня самсунг/intel и были :D
Crucial если что — это торговая марка Micron, одного из немногих производителей чипов памяти.

Можно сказать, Вам крупно повезло )
Специально для Вас есть PCIe карты на 4 m.2 nvme, под Raid5 )

А по факту, HDD — это нишевый продукт для долговременного хранения холодных данных на редко-встречающихся десктопных компьютерах. Во всех остальных местах давно флеш, флеш и ничего кроме флеша — почти два миллиарда смартфонов в год (последние лет десять), двести миллионов планшетов в год, десятки миллионов ноутбуков (вот уж где точно жесткие диски противопоказаны и ставятся только от бедности), несчётное количество флешек для фотоаппаратов/видеорегистраторов и прочих распбери паев. И это всё без учёта миллионов серверных SSD.

десятки миллионов ноутбуков (вот уж где точно жесткие диски противопоказаны и ставятся только от бедности)

Кстати да, мой первый SSD появился у меня тогда, когда винчестер в ноутбуке не пережил «воздушной ямы» и приуныл.
С тех пор у меня не было ни одного сдохшего SSD, а тот что покупался безвременно почившему винту, WD на 256 гигабайт, успешно трудится в качестве внешнего хранилища игр для Xbox Series X.
Поэтому да, HDD нынче это уже нишевый продукт. Даже 2,5 дюймовые в переносных боксах у меня давным давно никуда из помещений не выносятся. Так как один, опять же, не перенёс гололёд, находясь в рюкзаке. Причём не думаю, что я смог развить перегрузку, превышающую даташитовую. Просто неудачно сложилось.
Почему не заменяется? Дамп на внешний хард, выпаять флешку, впаять новую флейшку, установить ось, готово.

в небольшом городке даже ик паяльную станцию не найдете. собирают по "рога и копыта" конторкам и отправляют в столицы. но это не дело.


тут пробовал отпаять чип феном лукей. ну и лучше б не пробовал. только мелочь сдувает рядом.


потом. вопрос цены. чипы в адаптерах и тп по отдельности — долгая доставка и цена =новому устройству+доставка. т.е. это дикий минус.
как и оперативка. понаделали кругом говно сайтов на js(что с откл. js даже не откроется сайт — выдаст предупреждение и ошибку).
а с вкл да без диких правил в адблокере у тебя память съедается десятками гигов в браузере только.
т.е. ее надо 20-30Гб. а некоторым 120-200ГБ мало. а они добавить не могут. нафиг такие устройства. они продают на мощном проце с минимальными 8+Гб. уроды. мобилок хватает с мучениями, когда тебе все за оверпрайс.

тут пробовал отпаять чип феном лукей. ну и лучше б не пробовал. только мелочь сдувает рядом.

Каптоном заклеиваете вокруг выпаиваемой детали всё. Он температуру выдерживает без проблем.

А можно так память нарастить?
В айфонах так уже пару лет делают в неофициальных мастерских — выпаивают чип, считывают с него данные программатором, заливают на новый чип нужного объёма и запаивают на место.

В макбуках 13-15х годов аналогично оперативку апгрейдили, с дополнительными изменениями обвязки (страпов), чтобы система знала, какие модули установлены.

так это для старых айфонов. вроде, не? там да. простейшая приблуда за пару баксов. а вот новые чипы ufs (или какие там) уже неет, это тоже все в крупные столицы

Не знаю мой комментарий в поддержку вашей мысли или нет, но сам имею 3 мак мини (дома и на работе). Два 2011 года, работаю на них до сих пор, вполне хватает для офисных задач, также купил 2018 года и к нему прикупил внешний жесткий диск type c samsung t5 на 500 гб и установил систему на него, тем самым расширил память и сохраняю ресурс встроенного ssd. По тестам скорость ssd упала (500 против 2000), в моей работе не замечаю этого. Но есть ли возможность грузиться с внешнего ssd на моделях с М1?

Насколько я читал, с thunderbolt носителя макось грузится (с обычного USB пока нет), но чтобы её туда установить надо повозиться.
Всё, что касается загрузки, сейчас активно дорабатывается со стороны Apple, поэтому если эта возможность критична, я бы мониторил macforums и ждал больше успешных историй.

А что там с виртуализацией? Могу я на нем поднять условный QEMU/KVM? Как домашний сервак — самое оно (имхо).
Думаю что под домашний сервак есть более подходящие варианты :)

Но отвечая на вопрос — kvm, если не знали, прибит гвоздями намертво к linux, так что нет, он не заведется. У mac os свои собственные решения для виртуализации, там есть rosetta 2 которая может запускать x86 код, и есть свои концы для виртуализации arm, вроде бы даже windows 10 arm запускали. qemu(который либо софтварно эмулирует архитектуру, либо просто является фронтендом, как в случае kvm) там тоже вряд ли заведется с каким либо хардварным ускорением, у apple есть собственный гипервизор.

Вопрос в том, насколько будут эти концы виртуализации подходить под домашний сервак… Учитывая опыт з docker на маке — наверное не будут.

Одним словом — нет, это мусорка для домашнего сервака по параметру деньги/полезный сервачный выхлоп.
Думаю что под домашний сервак есть более подходящие варианты :)
Например? Если не считать самосборные серверы выбор не такой уж и большой.
Если мы берём домашний Mac Mini для сервера, то с такими требованиями любой домашний x86 комп может быть сервером. Тогда выбор большой.
Для разных целей — разные критерии. С трудом представляю, что размер камня будет для кого-то важным критерием для домашнего сервера в этом контексте.
Шум и остальное тоже зависит от целей. За всё надо платить так или иначе.
Цена-производительность-компактность: можно выбрать любые две фичи.
Ну да, конечно, огромный, шумящий HP Proliant G3 ML150 или же маленький, холодный, Mac Mini, который, с свою очередь, в разы шустрее пары старых X5355. На фоне таких решений — M1 выглядит очень вкусно, отсюда и вопрос, а что там с виртуализацией в целом?
Спасибо, что не сравнили с Pentium Pro. Кроме древнего ML150 и X5355 есть много более современных и производительных платформ по схожей цене.
Я же говорил про сегодняшние решения, а не варианты 15-летней давности как X5355.
Мало кого заинтересует решение на X5355, только если не от жадности когда оно достаётся бесплатно. Да и то надо будет поискать кто такое может взять.

Например, у меня было что-то на базе i7 6-7-ого поколения с 64GB памяти как сервер, но потом стало не хватать и я обновился до чего-то более современного, шустрого и просторного. Заплатив за это чуть большим шумом и размером. Сервер стоит в подвале и поэтому эта цена была для меня приемлема.
Шум, подвал, размеры.
Ну вот, альтернатив М1 нет.
Полно альтернатив, в этом всё и дело. Всё зависит от целей. Если мне надо кучу оперативки, то есть куча альтернатив M1. Если надо кучу ядер, то есть тоже много альтернатив. Если надо уложиться в $500, то тоже альтернативы есть.
Кому-то важен размер, но это не значит, что размер — самый важный критерий для всех подряд.

Цена-производительность-компактность: можно выбрать любые две фичи.
Нет сервера, где все три фичи на пике высоты. Чем-то надо всегда жертвовать. Даже с M1 надо чем-то будет пожертвовать.
НЛО прилетело и опубликовало эту надпись здесь
Ну и куда я буду в M1 свои 12 HDD втыкать? К домашнему серверу бывают разные задачи.

Конечно, вы не ожидали увидеть ответ через столько времени. Возможно даже вообще не ожидали, но: у Mac на M1 есть сейчас два порта Thunderbolt 3. Они обеспечивают скорость передачи данных до 40 Гбит/с. Существуют дисковые полки с Thunderbolt 3 (стоят как крыло боинга, правда). Поэтому если у вас всё же возникнет непреодолимое желание воткнуть корзину из 12 дисков к Mac — решение есть.
P.s. У самого дома обычный сервер, с корзиной, если что)
P.p.s. Но от сервера на ARM за разумные деньги и с нормальным TDP я бы всё же не отказался. Чтоб этак на 6 дисков с горячей заменой.
Если прям размеры критичны, то есть малина
Там всего 1 гигабитный езернет, всего 16 гибайт памяти, как то маловато чтобы делить в виртуализации. Если как сервер для XCode CI то одно дело.

Есть какой-нибудь HPE Microserver Gen10 Plus. Слышать от него вы всё равно будете, в основном, диски.
Но всё зависит от требований. Если вам хватает минимальной флеш-памяти в mac mini — вы можете его брать. Если нет — вам нужны другие решения.

Qemu может использовать HVF как бекенд, так что с хардварным ускорением там все хорошо. В мейлинг листах лежат арм-специфичные патчи, что позволяют запускать windows 10 на м1.

Помимо этого, на м1 уже сейчас работает tech preview parallels.

Круто, не знал. А как там с виртуализацией устройств? virtio работает?

НЛО прилетело и опубликовало эту надпись здесь
Как вы думаете, сможет ли архитектура ARM полностью вытеснить x64?

Сомнительно. Скорее появится принципиально новая архитектура, которая похоронит и ARM, и x86-64 (и то не сразу).

угу. как в песенке… прилетит вдруг волшебник, в голубом звездолете...

Я не вижу у архитектуры ARM никаких принципиальных преимуществ, которые позволили бы безоговорочно победить x64.
Точно так же я не вижу принципиальных преимуществ у архитектуры x64.
Обе архитектуры имеют свои преимущества и недостатки. Обе тянут за собой хвост старых решений, от которых никак не получается уйти.
Так что будут они бодаться между собой до тех пор, пока не появится новая архитектура, имеющая такое принципиальное преимущество, ради которого потребители смогут отказаться от старого багажа.
Это только на мобильном рынке АРМ смог практически задавить конкурента, несмотря на его попытки на этот рынок пролезть. На других рынках (десктопы, ноутбуки, сервера) такого не наблюдается, и, судя по долгому времени наблюдения за таким состоянием, не будет уже никогда.
Эппл в данном случае вообще не показатель. Они в своей персональной песочнице. И смену архитектуры они уже не один раз проводили. Только на остальной рынок электроники это не влияет почти никак.


Другой вопрос, что такой альтернативной прорывной архитектуры ждать в ближайшем будущем не приходится, а потому вполне допускаю, что в случае, когда (и если) такая архитектура появится, ей придется хоронить не только эту сладкую парочку АРМ и Х64 (вторая на самом деле всего лишь разросшийся Х86), а три-четыре архитектуры, не имеющих возможности похоронить (или хотя бы задвинуть в очень узкую нишу) хотя бы одного из конкурентов.

Есть еще класс процессорных архитектур — VLIW (Very Long Instruction Word), к кот. принадлежат МП-архитектуры Эльбрус, IA-64 (Itanium) и др. Процессоры VLIW обычно используются с оптимизирующими компиляторами, выполняющими задачу распределения вычислительных устройств процессора. МП VLIW позволяют значительно увеличить производительность при той же рабочей частоте, по сравнению с др. конкурирующими МП-архитектурами.

Теоретически.

Поздние Itanium были уже вполне OoO, другие VLIW звезд с неба никогда не хватали по причине фундаментальных ограничений (скорость доставки операндов за переделами регистров не детерминирована)
Так что будут они бодаться между собой до тех пор, пока не появится новая архитектура


Если бы было все так просто, то Интел давно бы уже это сделали. Внутри, ARM и X86 не такие уж и разные.

Позволю себе процитировать себя


Другой вопрос, что такой альтернативной прорывной архитектуры ждать в ближайшем будущем не приходится

Оно действительно весьма непросто. Потому-то пока ничего и не видно не то что в реальности, но даже в перспективе.
Из существующих "конкурентов" тот же RISC-V ничем принципиально не отличается кроме лицензии и отсутствия монстров, способных быстро развивать эту архитектуру.
VLIW просто перекладывает то, что делают другие процессоры для распараллеливания, на компилятор. Если я правильно понимаю, как работает эта архитектура, то оно, конечно, упрощает процессор, делая его в теории эффективнее, но настолько же усложняет компилятор и ставит вопросы эффективного выполнения разных процессов, код которых скомпилирован независимо.
Потому они пока из своих узких ниш так до сих пор и не вылезли.
Разве что у RISC-V есть шанс стать третьим равным бойцом на рынке, если в него решится вложиться и сможет это дело развернуть какой-нибудь монстр. Но монстры все больше в сторону АРМ смотрят (и Эппл туда же).
Еще MIPS есть, но с ним тоже пока как-то не очень.

У RISC-V шансов на большую популярность практически нет, как я думаю. А на базе MIPS китайцы делают свой национальный микропроцессор Loongson/Godson, а в России выпустили Baikal-T1.
Как то про Loongson давно новостей не было, кстати. Уж лет 10 как почти. К тому же, проходил слух, что они с MIPS на свою архитектуру перешли — Godson 464E. Но про неё ничего не известно. Ну а Байкалы это не совсем процессоры общего назначения, пока они больше чем на работу во встроенных решениях типа роутеров не претендуют.
Loongson до сих пор является национальным микропроцессором Китая. GS464V R2 (последняя версия архитектуры Loongson, она же LoongISA 2.0) — это всего лишь MIPS64v3 с расширениями для ускорения трансляции кода x86 и ARM, виртуальных машин и векторных вычислений 128/256 бит; также в GS464 некот. команды MIPS. Архитектура LoongISA — достаточно открытая, и под нее китайцы портировали уже до десятка дистрибутивов Linux, UNIX (FreeBSD, NetBSD и OpenBSD) и даже WindowsCE.
Это ещё древние греки придумали, называется Deus Ex Mashine
Старое поколение имеет 4 порта, а новое — всего 2.

Действительно, зачем на десктопе порты, ишь чего захотели.
НЛО прилетело и опубликовало эту надпись здесь
Пользуюсь mac mini m1 16gb в течении двух месяцев. После новости об износе диска проверил свой. Износа нет. Но и операций с диском у меня тоже меньше. Более чем на порядок. Подозреваю, что человек монтировал 4к видео или еще что то тяжелое делал. В любом случае, думаю что на 5 лет его хватит. Но я скорее всего поменяю когда новая модель выйдет.

Использую данный компьютер для работы. Докер работает отлично, проблем не было. Весь JetBrains софт работает. Но, даже не смотря на то, что у них есть сборки под ARM для Mac (кроме Rider) единственное, это дает более быструю скорость запуска приложений. К сожалению на моем мониторе 27 4к все ide jetbrains работают заметно медленнее чем с подключенным к этому же монитору macbook pro 16. Если открыть окно на весь экран, то очень не комфортно пользоваться. При этом на макбуке с интел такого нет. Подозреваю, что если подключить mac mini m1 к монитору с full hd то тормозов в ide jetbrains будет меньше или не будет вообще. С vscode ситуация чуть лучше, но не идеальна. За то есть vscode insider, который я сейчас использую как основной инструмент. Он летает. Очень приятно работать. Быстрее чем обычный vscode на макбук про 16. В основном работаю над бекендом. Основные языки C#, Go, Python, C. Многие библиотеки, которые я использую не поддерживают arm. Но это не проблема, так как можно поставить нужные библиотеки под x86 а затем использовать их (на примере python) в vscode insider под m1 указав интерпретатору использовать x86-64 архитектуру. Так что можно без проблем программировать с использованием не поддерживаемых в m1 библиотек из софта, который собран под m1.
Что касается розетты. Не стоит беспокоиться. Все происходит в фоне. Единственное, для удобства можно сделать себе 2 терминала. В одном из них поставить галочку — «запускать под розеттой», а второй под нативную работу. Так что если вы активно используете: protobuf, grpc, numpy и т.д, то не беспокойтесь, все будет работать.

По поводу оперативной памяти. По началу смущал факт 16гб. Думал, что будет очень мало. Но по факту я вообще перестал думать о памяти. Она как будто бесконечная. Приведу пример. Запущен Docker. В нем крутится rabbitmq, 7 контейнеров, запущенных через композ, 3-4 окна vscode insider, datagrip, rider, slack, telegram, около 10 вкладок в хроме. При этом нагрузка на память не доходит даже до половины. Да своп может уйти от 1 до 8 гигабайт. Но это никак не сказывается на производительности. Единственный случай, когда мне удалось максимально нагрузить память (это не связано с программированием) это когда я открыл одновременно около 50 файлов RAW (размер одного файла, примерно 24мб) в pixelmator pro. Вот тогда прогрузился процессор и график нагрузки памяти был красный, своп был 36-37 гигабайт. При этом система не зависла и я мог продолжать ей пользоваться без тормозов. Тормозил только сам pixelmator pro.

Подводя итог, могу сказать, что mac mini m1 мне нравится больше чем макбук на интел. Интерфейс более плавный и отзывчивый, быстрее работает нужный мне софт. Но от macbook pro 16 пока не могу отказаться из за jetbrains софта, который к сожалению на m1 медленно работает (монитор 27 4к). И еще один плюс, он тихий. Даже под нагрузкой. Вентилятор еле слышно, если в плотную поднести мак мини к уху. Всегда холодный.
К сожалению на моем мониторе 27 4к все ide jetbrains работают заметно медленнее чем с подключенным к этому же монитору macbook pro 16.

Попробуйте отключить сглаживание шрифтов в настройках — алгоритм сглаживания пока не портирован даже в native-сборках, поэтому всё тормозит. Мне на 27" 4k (с 2x масштабированием) без сглаживания вполне комфортно, по крайней мере со стандартным шрифтом Jetbrains Mono.

Спасибо, попробую обязательно!
Не отключить, а сменить стандартный режим Subpixel на Grayscale. Тогда окно с кодом становится быстрым, и только панель с файлами будет немного тормозить.
Да, это работает. Но я уже привык к vscode (insider) и обратно на jb не хочется :)
Где ж вы раньше были, мой phpshtorm наконец-то работает так же быстро, как и раньше. Спасибо!
Визуально разницы в шрифтах не вижу.
добрый день, а у вас нет проблем с монитором внешним? из сна компьютер выходит корректно? у меня раз через раз краши (что я давно не видел на технике аппл) либо иногда приходится перетыкать порт сандерболт

Работают у вас кнопки яркости и громкости через внешний дисплей? весь сторонний софт что я нашел пока не оптимизирован под м1

По факту после апдейта до 11.2 ничего не изменилось и это печально, жду 11.3
Здравствуйте. Монитор работает без проблем. Подключаю по usb-c (тандерболт шнур). По hdmi не пробовал.
Подскажите модель монитора
Видимо эта проблема только у сандерболта
Benq sw271
Я выключил сон компа на Mac Mini с M1, но оставил отключение экрана при бездействии. Для пробуждения дисплея, кроме нажатия любой клавиши на клавиатуре или мыши, почему-то надо обязательно что-то сделать ещё — мышью повозить или кнопку нажать, чтобы монитор, включив подсветку (но не показывая изображение), не ушёл обратно в режим ожидания. Монитор LG 27GL850-B, подключен через HDMI.
Похожие проблемы начали появляться на старом Mac Mini 2012 после обновления до Catalina, когда монитор не всегда мог проснуться, причём даже переподключение кабеля не всегда помогало (там приходилось использовать DisplayPort).
До 11.2.1 была проблема что автоматический переход в сон перезагружал систему, сейчас все ок.
Яркость и громкость не регулируется.
Монитор AOS U3277PWQU, подключен переходником USB-C/DP
А докер это Tech Preview который под M1?
Да, preview.
Причина тормозов может быть в Scaled разрешениии — контролы на 27 4k выглядят нормально, если установить scaled аналог 2560x1440, но тогда операционке приходится вычислять дробные масштабы

Если установить FullHD 4k — то тогда все будет крупнее, но при этом целочисленное масштабирование (1 логический пиксель = 4 физических), но интерфейс начинает летать.

Для 27" хорошеий вариант это уже 5k мониторы — LG Ultrafine 5k, или, если 4k, то 24" мониторы.

К сожалению индустрия не балует нас правильными вариантами, подозреваю что из-за каких-то особенностей скейлинга на Windows мы не получаем «правильную» ретину от сторонних производителей.

Конкретно тут тормоза связаны с рендерингом шрифтов в самой IDEA: https://youtrack.jetbrains.com/issue/IDEA-259046


Причина тормозов может быть в Scaled разрешениии — контролы на 27 4k выглядят нормально, если установить scaled аналог 2560x1440, но тогда операционке приходится вычислять дробные масштабы

Если установить FullHD 4k — то тогда все будет крупнее, но при этом целочисленное масштабирование (1 логический пиксель = 4 физических), но интерфейс начинает летать.

Дело не совсем в дробном масштабировании. В режиме HiDPI macOS всегда рендерит в буфер размером 2x от "scaled" разрешения, а потом делает downscale до родного разрешения монитора.
Для scaled-2560x1440 разрешение рендеринга выходит 5120x2880, а для scaled-FullHD — 3840x2160, что требует несколько меньше ресурсов. Сам downscale же почти ничего не стоит.

Спасибо. Посмотрев на внутренний мир могу однозначно сказать — нет, все же не хочу я macMini. Домой точно. И не захочу. По крайней мере до тех пор, пока SSD и модули памяти не будут сменными. Корпус позволяет.

Будет несколько обидно, если это окажется не устройство от Apple. Все же первое реально массовое сделали именно они. И я готов отдать им должное и проголосовать рублем. Но не за такое решение.

По сути удивительно, но aARM64 правильно «окученный» оказывается вполне рабочим решением для приличного куска рабочих задач. До M1 в это верилось с трудом. Да до сих пор верится с трудом. Linux на этой архитектуре ведет себя сильно паскуднее. Впрочем, тут пожалуй очень много зависит от видео-подсистемы. Это Apple может себе позволить качественный код для собственного GPU. Его показывать не надо, и конкуренты по нему ничего не раскроют. В принципе, что-то подобное может получиться у Microsoft. Тоже закрытая система. И тоже вывод в основном на GPU. Но надо посмотреть…

Похоронит ли это x64? Не уверен. Не интерактивные, сильно ресурсоёмкие задачи класса «числодробительная машина» под открытыми операционными системами востребованы. И в ближайшее время менее востребованными не будут. Правда кусок «десктопов» уж очень велик по объему… Но в любом случае пока ждем.
Linux на arm64 ведёт себя вполне неплохо. В чём «паскудность» заключается?
Да и у Apple не просто голый arm64, а со своими плюшками. Эти плюшки могут и другие навесить, это вопрос цены.
НЛО прилетело и опубликовало эту надпись здесь
могут сразу взять то, что надо.

Если бы ещё всем и всегда было ясно, что надо.
скажем так: пока технари да креативщики рассуждают подойдет ли им M1, обычные пользователи, которые не шибко знают что им нужно, просто его берут и он им просто подходит.

Много лет на разных маках, и забыли про отвал GPU Nvidia ?

НЛО прилетело и опубликовало эту надпись здесь
Так вроде уже скоро десять лет, как этой проблемы нет. Или было что-то после 2011-го года?
Linux на этой архитектуре ведет себя сильно паскуднее.

Дело не в архитектуре, а в микроархитектуре. Вы пробовали гораздо более слабые процессоры — массовых ARM64 ядер сравнимых по производительности с Firestorm просто не существовало.

Э-хе-хе… Знаете, слова микроархитектура и «крекс-пекс-фекс» (или, что аналогично «патамучта!») чем дальше, тем больше становятся синонимами. Как и кеш все больше становится синонимичен «сим-салавим, ахалай-махалай» (или «бе-бе-бе»). Маркетологи взяли эти термины на вооружение и теперь ими объясняется все. А раз так, то пусть будет микроархитектура и кеши — я не против.

Но мне сильно ближе понятие «сбалансированнности» системы и отсутствии явных ошибок проектирования. Apple долго шла к M1. Реально долго. Они отказались от X.Org оставив его эмулируемой прослойкой. Они сделали достаточно серьезную ставку на отрисовку интерфейса на GPU (что по тем временам выглядело несколько сомнительным). Они долгое время оптимизировали код имея параллельно опыт с macOs на Intel + NVidia/ATI-AMD и iOS на ARM/aARM64. Не было тут никакой гениальной «микроархитектуры» возникшей ниоткуда как чертик из табакерки, при чем только у Apple. Но результат оказался шикарным. Система неимоверно сбалансирована. Нет ничего, что было бы излишне скоростным и много потребляющим (а значит сильно греющимся) или чего-то сильно тормозного, из-за чего остальная система вынужденно простаивает. При этом все это «накрыто» сильно переработанным, но все же UNIX'ом.

Собственно это и есть причина, по которой aARM64 сервера не сильно стреляют. Нет, они годятся для определенного круга задач. Они вполне справляются с NAS'ами или не сильно нагруженными приложениями. Все равно производительность хромает. Та, которая вычислительная (условно «фоновая»). А вот «интерактивная» наоборот оказывается выше. Но востребована она на десктопах/планшетах. На серверах нужна как раз «фоновая». Собственно это ответ на вопрос «в чем паскудность» от nochkin

Потому спасибо Apple — они показали, что десктоп вполне может быть на aARM64. А вот про сервера… Посмотрим стрельнет ли ставка на «многоядерность». Там все не так просто. Впрочем у SUN (ныне Oracle) был весьма солидный опыт запуска UNIX на реально многоядерных системах. Если, конечно, он не потерян окончательно и бесповоротно.
Э-хе-хе… Знаете, слова микроархитектура и «крекс-пекс-фекс» (или, что аналогично «патамучта!») чем дальше, тем больше становятся синонимами. Как и кеш все больше становится синонимичен «сим-салавим, ахалай-махалай» (или «бе-бе-бе»). Маркетологи взяли эти термины на вооружение и теперь ими объясняется все. А раз так, то пусть будет микроархитектура и кеши — я не против.

Вы можете сколько угодно хихикать, если не понимаете, что за этими словами стоит, но лучше почитайте.


Они отказались от X.Org оставив его эмулируемой прослойкой.

В MacOS X, как и ранее в MacOS, никогда не было "нативного" X11 сервера. Это всегда была прослойка для портированных приложений.
Но это, как и все остальные рассуждения про софт, не имеет отношения к производительности процессора.


Не было тут никакой гениальной «микроархитектуры» возникшей ниоткуда как чертик из табакерки, при чем только у Apple.

А микроархитектура Zen тоже возникла "ниоткуда как чертик из табакерки"? Или за ней таки стояли прорывные идеи и годы работы, как и у Apple?


Собственно это и есть причина, по которой aARM64 сервера не сильно стреляют. Нет, они годятся для определенного круга задач. Они вполне справляются с NAS'ами или не сильно нагруженными приложениями. Все равно производительность хромает. Та, которая вычислительная (условно «фоновая»).

Вам пора обновить представления о мире.

Вы можете сколько угодно хихикать, если не понимаете, что за этими словами стоит, но лучше почитайте.

Вам пора обновить представления о мире.


Простите, но сдать ЕГЭ уже просто по возрасту не получится. Потому придется терпеть меня таким, каков я есть. Со всем багажем наработанных знаний.

Еще раз, для тех кто читал невнимательно: пусть будет микроархитектура и кеши — я не против. Пусть будут aARM64 сервера. У меня есть стратегический запас попкорна и изрядная доля инженерного сарказма. И даже невозмутимость есть для комплекта. Потому дурак, мхом поросший — ну и замечательно.
Не было тут никакой гениальной «микроархитектуры» возникшей ниоткуда как чертик из табакерки, при чем только у Apple.

Не знаю в какой берлоге вы спали, но микроархитектура Firestorm (A14/M1) — это развитие Cyclone (A7) 2013г.
Производительность — результат 7 поколений инкрементальных улучшений.

Какой ещё «aARM64»? Вы несёте какую-ту ахинею (про вступление я вообще молчу)
Ух, все любители ARM'ов подтянулись. Ну здравствуйте!

Про микроархитектуры и их развитие. Так я и говорю о том, что M1 не возник из ниоткуда и всех победил. Он результат поэтапных (если больше нравится инкрементальных) улучшений. Вопрос лишь в том, а чего так слабо остановились. Всего-то 2013 год. Я, например, прекрасно помню ARM926-EJS (на котором Intel и отказался от ARM, решив сосредоточится на x84/x64 продав свою серию PXA). Вполне себе предшественник A7. И даже глубже — ARM7TDMI (кошмар для программиста, падавший в DATA ABORT при любом доступе к невыравненной переменной). И это то, только то, что щупал своими руками я сам. Так что я не понял про берлогу. Тут мы с вами полностью солидарны.

Вообще, господа жонглирующие терминами «микроахитектура», а расскажите мне серому (лучше в виде статьи) чем же микроархитектура отличается от макроархитектуры? Есть ли миддлеархитектура и по каким именно критериям происходит разделение на эти уровни. Только знаете, источники должны быть не хуже IEEE std или на крайний случай RFC. В принципе пойдет и официальная документация ARM. И я с радостью посыплю голову пеплом и скажу что был не прав. Но до тех пор, уж простите, разговоры про особенности микроахитектуры для меня останутся маркетологическим бредом, нацеленным на тупого конечного пользователя не желающего вникать в особенности реализации системы. Этакий «черный ящик», который у нас лучше, чем у конкурентов. И на вопрос «Чем именно лучше?» всегда дается один ответ: «Чем у конкурентов!». Я не буду называть тех, кто подобным грешит. Думаю, те кто реально работает с нужным уровне их и так знают.

Вообще идея снять лапшу с ушей, включить режим познания (и сомнения) она очевидна. Ну очевидно же, что Apple, которая лицензирует ядро ARM, никак не может заставить его работать в разы быстрее, нежели конкуренты. Почему многоядерные ARMы для промышленных железок (да и для телефонов) очень часто содержат разнородные ARMы (часть ядер 64 разряда, часть 32, а в довесок еще и какой-нить Cortex-M)? Ведь если верить комментариям здесь Apple нашла кокос святой грааль (в куче лицензируемых ядер!!!) и эти танцы с бубном никому не нужны. Почему в конце концов Cortex-M4/M7 живет и популярен, M0 — частенько встречается, M3 — редкость, а про M1 и M2 все давно и основательно забыли? Но для этого надо отключить клиповое мышление и включить критическое — инженерное. Зачем? Советовать «обновить представление о мире» в комментариях проще. Да бог с ним. В конце-концов извечный спор узкого профи и человека-оркестра никогда не закончится. И каждый волен занять свою сторону.

Так что про «какую-то ахинею» и «вступление» я ничего не скажу. Кроме того, что уже сказал. А вот про aARM64 скажу. И, пожалуй, даже признаю свою неправоту. Впрочем, ведь и вы, и остальные прекрасно поняли что имелось в виду. Увы, да. Вытащил «местечковый сленг» на глобальный уровень — ошибка признана.

Простите, но вы несёте херню тоннами.


Я, например, прекрасно помню ARM926-EJS (на котором Intel и отказался от ARM, решив сосредоточится на x84/x64 продав свою серию PXA). Вполне себе предшественник A7.

Примерено так же как VIA C3 предшественник Intel Core. Из общего у них только то, что их системы команд (разные) были разработаны в холдинге ARM.


Вообще, господа жонглирующие терминами «микроахитектура», а расскажите мне серому (лучше в виде статьи) чем же микроархитектура отличается от макроархитектуры?

То, что принято называть "архитектурой" — это система команд. Она накладывает некоторые ограничения на то, как может быть спроектирован процессор, но не является определяющей.
А вот внутреннее устройство CPU определяется микроархитектурой. Ссылки найдёте в сносках, это настолько общепринятые понятия, что ваше с ними незнакомство выглядит как минимум странно.


Этакий «черный ящик», который у нас лучше, чем у конкурентов. И на вопрос «Чем именно лучше?» всегда дается один ответ: «Чем у конкурентов!». Я не буду называть тех, кто подобным грешит. Думаю, те кто реально работает с нужным уровне их и так знают.

Во многом, микроархитектуры разных производителей действительно являются чёрными ящиками, поэтому и существуют исследования, вроде того, что я приводил ранее — чтобы понять, как же на самом деле устроены процессоры и чем одни отличаются от других.


Ну очевидно же, что Apple, которая лицензирует ядро ARM, никак не может заставить его работать в разы быстрее, нежели конкуренты.

Они не лицензируют ядра у ARM. Они лицензируют систему команд AArch64, которая была создана во многом под их же влиянием.
Начиная с A6 Apple строит процессоры на своих ядрах. Их разработка началась с покупки компании P.A. Semi в 2008 году, а затем Intrinsity в 2010.
Айфоны с A7 — первым 64-битным ARM процессором в мире — были выпущены на прилавки ещё до того, как ARM Holding завершил проектировать свои референсные ядра "на бумаге", что для остальных производителей ARM решений было серьёзным потрясением.


Почему многоядерные ARMы для промышленных железок (да и для телефонов) очень часто содержат разнородные ARMы (часть ядер 64 разряда, часть 32, а в довесок еще и какой-нить Cortex-M)?

Покажите мне "разнородный" процессор с ядрами разной архитектуры.
Обычно используются ядра с разным энергопотреблением — для разных задач. В M1 есть 4 производительных ядра — для тяжёлых вычислений и 4 энергоэффективных — для служебных процессов, нетребовательных потоков, фоновой работы в режиме "сна".
Intel, кстати, в эту же сторону наконец пошёл — смотрите на Lakefield и Alder Lake.

Смотрите. И уж поверьте — он далеко не единственный.

Все остальное… Нет, все же я остаюсь при своем мнении. Есть архитектура чипа, узла, системы, здания, города… С разных слоев приставка микро- будет обозначать разное. А раз так, то ссылка на «общепринятое» не канает. Общепринятое — это архитектура. С уточнением, при необходимости, о том какого именно узла архитектура. Остальное те же жаргонизмы.

Как, впрочем, и взгляды на жизнь и историю вычислительной техники. Впрочем, про критический взгляд я писал выше. Мне больше добавить нечего.
Смотрите. И уж поверьте — он далеко не единственный.

Cortex-A53 и Cortex-A72 имеют абсолютно одну и ту же архитектуру, просто второй сильно "жирнее" по производительности и потреблению. А 2xCortex-M4F вообще являются тут не CPU ядрами, а просто дополнительными контроллерами, которые могут выполнять разные служебные задачи, и не участвуют в выполнении основного потока инструкций CPU.

Снег белый (обычно). В северном полушарии летом теплее, чем зимой.

Вопрос ведь был не «что сделано»? Вопрос был «почему сделано»? И больше того — почему сделано именно так? И про М1 та же ерунда. Я же пытаюсь заставить вас копать глубже и уже начать хоть как-то открывать «черные ящики».

Для меня «черным ящиком» является конечный транзистор. VHDL/Схемотехника узлов — прилично заляпанной схемой, из которой все равно понятна общая суть. Ровно то, чего добивается ARM, держа свой developer сайт. А сама система… Всего лишь одной из многих систем. Хоть и очень удачно получившаяся. А где ваши «черные ящики»? И имеет ли смысл при таком раскладе продолжать?

К слову, системный и прикладной слой у Apple для меня тоже довольно серьезный «черный ящик». Я могу предположить, что там есть кое-что от UEFI в нижнем срезе. Могу сказать что корни BSD в ядре разглядеть тоже можно. Но в более-менее значимых деталях не владею вопросом. Это просто для того, чтоб вешки расставить…
Вопрос ведь был не «что сделано»? Вопрос был «почему сделано»? И больше того — почему сделано именно так? И про М1 та же ерунда.

Я вам в предыдущем сообщении писал, почему это сделано. Если для вас такая структура процессоров до сих пор загадка, и мифические гибридные процессоры с ядрами разной битности на каждом шагу встречаются, то, боюсь, нам тут нечего дальше обсуждать.


Я же пытаюсь заставить вас копать глубже и уже начать хоть как-то открывать «черные ящики».

Ну давайте, покажите как открыть "чёрные ящики" M1.
На каких принципах там основан предсказатель ветвлений, который стабильно обходит на 20-25% конкурентов от Intel?
Какие алгоритмы ренейминга регистров позволили им успешно утилизировать 8 декодеров?
Как именно они меняют на лету модель памяти с расслабленной (ARM) на более строгую (x86), и не ловят рассинхронизаций кэшей или замедлений?


VHDL/Схемотехника узлов — прилично заляпанной схемой, из которой все равно понятна общая суть. Ровно то, чего добивается ARM, держа свой developer сайт.

Общая суть всех процессоров довольно понятна, они все не очень сильно различаются по набору крупных блоков. Дьявол в деталях.

Есть архитектура чипа, узла, системы, здания, города… С разных слоев приставка микро- будет обозначать разное. А раз так, то ссылка на «общепринятое» не канает. Общепринятое — это архитектура. С уточнением, при необходимости, о том какого именно узла архитектура.

Вот вам ссылка на то, как именно определяются понятия "архитектура" и "микроархитектура" для процессоров, от самого ARM Holding: https://developer.arm.com/architectures/cpu-architecture
Можете посыпать голову пеплом.

Посыпаю. Попутно задаваясь вопросом — хорошо, у ARM архитектура RISC, а микроархитектура — это ее реализация глазами ARM. А где же революционная микроархитектура Apple о которой так много говорили большевики немного выше?

Вы или читать не умеете, или просто юродствуете, не желая признавать свою неправоту.


The CPU architecture defines the basic instruction set, as well as the exception and memory models that are relied upon by the operating system and hypervisor.

Архитектура в широком смысле: AArch32 (aka ARM — 32-битный набор инструкций и AArch64 (aka ARM64) — 64-битный ISA. В более узком смысле обозначается конкретная версия архитектуры, например: ARMv7-A, ARMv8.6-A.


The CPU microarchitecture determines how an implementation meets the architectural contract. The microarchitecture defines the processor's power, performance and area by determining the pipeline length, levels of cache and so on.

Микроархитектура — устройство конкретного ядра/процессора, реализующего некоторую версию архитектуры. Примеры: Cortex-X1, Firestorm/Icestorm.


А RISC — это общие принципы, которыми на словах руководствовались разработчики архитектуры.


А где же революционная микроархитектура Apple о которой так много говорили большевики немного выше?

В третий раз привожу ссылку на разбор микроархитектуры Apple: https://www.anandtech.com/show/16226/apple-silicon-m1-a14-deep-dive/2

Вообще, господа жонглирующие терминами «микроахитектура», а расскажите мне серому (лучше в виде статьи) чем же микроархитектура отличается от макроархитектуры?
вам выше объяснили. Правда, кажется кто-то не хочет самообразовываться, а просто троллит
Вообще идея снять лапшу с ушей, включить режим познания (и сомнения) она очевидна. Ну очевидно же, что Apple, которая лицензирует ядро ARM, никак не может заставить его работать в разы быстрее, нежели конкуренты
заставили же. Не, в теории конечно же другие производители могут сделать чип не хуже а то и лучше чем apple, разумеется. На практике однако…
… а на практике Apple сделали не столько чип, сколько СИСТЕМУ (или несколько похожих систем). Которая оказалась быстрее конкурентов ровно потому что она очень сбалансирована. О том и речь.

Вопрос в том удастся ли добиться такого баланса для серверных решений остается открытым. Apple туда вроде не очень рвется, у остальных не сказать что очень хорошо получается.

Сугубо мое мнение — не факт, что вообще получится. Только дело не в том, что мне вещает Viknet А вот если ему интересно в чем именно дело — добро пожаловать в разработчики планировщик для сложных ARM систем. Только порог вхождения там довольно серьезный. И с разговорами о «предсказателе ветвлений, который стабильно обходит на 20-25% конкурентов» там особо делать нечего. С лучшем случае посмеются, припомнив недавнюю шумиху вокруг Spectre (она ведь и ARM'ов касалась, хотя огреб в основном Intel).

Впрочем, да — разделение на архитектуру и микроархитектуру там ближе к тому что говорит он и все, кто пытается меня образумить. Но опять — это взгляд с позиции разработчиков ядра.
Вопрос лишь в том, а чего так слабо остановились. Всего-то 2013 год. Я, например, прекрасно помню ARM926-EJS

Какое отношение ARM926 имеет к микроархитектуре Cyclone? Никакого.
Даже Apple A6 не связан с A7 в микроархитектурном плане.
А Apple A5 никак не связан с A6. A5 был лицензирован у ARM (Cortex-A8), A6 в свою очередь разрабатывался в Apple.

В принципе пойдет и официальная документация ARM.

Архитектура описана в ARM ARM (Architecture Reference Manual)
developer.arm.com/documentation/ddi0487/latest
Он не описывает характеристики конкретных чипов.

А вот описание конкретной МИКРОархитектуры Cortex-A72
developer.arm.com/documentation/uan0016/a
«Cortex-A72 microarchitecture»

чем же микроархитектура отличается от макроархитектуры? Есть ли миддлеархитектура

С какой целью вы юродствуете?
Не похоже что вы хотите заполнить пробел в знаниях.

Этакий «черный ящик», который у нас лучше, чем у конкурентов.

Вам уже давали ссылку на анализ микроархитектуры M1.

Ну очевидно же, что Apple, которая лицензирует ядро ARM

Ну-ка давайте, расскажите, какое именно ядро ARM лицензирует Apple,
и на основании чего вы сделали такие выводы?
:)

Посыпаю. Попутно задаваясь вопросом — хорошо, у ARM архитектура RISC, а микроархитектура — это ее реализация глазами ARM. А где же революционная микроархитектура Apple о которой так много говорили большевики немного выше?

Ну это уже юродство совсем на грани.
RISC это просто подход к проектированию архитектур.
ARM это АРХИТЕКТУРА — просто описание команд и интерфейсов.
Микроархитектура — устройство конкретного ядра, т.е. Cortex-xx, Apple Ax и т.п.
Убедили. Считайте что сдался и согласился. Есть много разумного и правильного в том, что вы пишите.

Остальное зачеркнуто. Ибо нет смысла бодаться ради процесса. А истинна все равно у каждого своя.
Пишу с MacBook Air первого поколения (2008 года производства), с SSD на котором стоит Linux только потому, что MacOS для него очень старый и там не запустить современный браузер и много чего другого. Но SSD исправно работает с минимальными потерями размера. Так что все разговоры про необходимость обновлять SSD — из области мистики. Я не думаю, чтобы Apple сделала колодки, которые увеличивают цену и снижают надежность SSD носителя.
Я не против. Но у меня с далеких 90 работает правило — возьми диск в два раза больше чем задумывал и он закончится в два раза быстрее, чем ожидалось. Собственно, PS5 от Sony этот тезис наглядно подтверждает. Да и памяти много не бывает. Тоже вполне себе аксиома.

Для меня оба этих момента критичны. Так что вопрос не столько в надежности, сколько в возможности увеличить объем. Хотя… Ремонтопригодность тоже дело не последнее.
Сильное подозрение что Apple вряд ли придет к сменным дискам и памяти. Пока движение ровно наоборот, к моему глубочайшему сожалению.
Немного грустно, что Эппл сделала Мак мини немодернизируемым. И если фиксированный объем оперативной памяти еще можно понять, то сделать невозможным заменить флеш память или поставить второй диск в корпус это чисто маркетинговое решение.
При этом удвоение памяти и флешки относительно базовой версии, чтобы получить систему хотя-бы немного с запасом, практически удваивает цену.
Получается, что лучше брать версию на 16GB оперативной памяти, и минимальным размером флешки. А систему ставить на внешний диск, который и дешевле, и заменить в случае износа можно.

корпус. в этот корпус влезает thin mininitx. это дает кууучу портов, проц аналогичной и более мощности и цену приятнее. а захотел старый превратить в роутер- поставил затычки за 500р, места по вкусу и сетевуху свежую.
эти убл**ки "радеют" за экологию, но делают одноразовые девайсы.
кстати, них никому не продают свои процы. конкретные монополисты. их давно вздрючить надо на несколько годовых выручек с увольнением всех топ мереджеров и тп.


заметить тут еще. что они могли сделать размером с 2.5hdd диск + кулер в толщину. но попаскудились и не сделати. и даже там бы вместились m.2 пара другая штук.


эпл очередной раз показала паскудную свою сторону.

Эти у***ки просто делают компьютеры для тех, кто не собирается из них делать роутеры или начинять железяками. Вы еще пожалуйтесь, что ваш пылесос нельзя обновить до марсохода. Что делать компании решаете не вы, а миллионы пользователей, несущих ей свои кровные. А для вас, и других чудесных людей, у кого много времени возиться с хламом, и кому не страшно сжечь железяку или сделать ее несовместимой ни с чем, вставив туда что-нибудь не то, есть другие производители.
Статья называется «взгляд изнутри», а все фото снаружи
НЛО прилетело и опубликовало эту надпись здесь
На сколько я понимаю, при исполнении нативного кода не получается (и просто невозможно) эффективно транслировать инструкции для работы с векторной математикой, коих у x86 вагон и маленькая тележка. Так что большой круг приложений, серьёзно работающих с математикой/шифрованием будут работать катастрофически медленно.

AVX не работает в Rosetta 2 вообще, но на этот случай почти во всех программах/библиотеках есть фоллбэки на SSE, т.к. не все даже современные x86 процессоры поддерживают AVX.
SSE вплоть до последних версий практически целиком транслируется в нативный NEON и выполняется сравнительно быстро.


Проблемы с производительностью в основном с приложениями, активно использующими JIT — браузеры, Electron-based, виртуальные машины языков (JVM, Node.JS) — в этом случае Rosetta вынуждена переключаться на эмуляцию x86.
К счастью, большая часть этого добра уже есть в нативных версиях.

Хех… SSE какой? Их тоже немало. Очень интересно, что они там в доступных расширениях процессора в эмуляторе отвечают.
И AVX тоже не от нечего делать придуман, он прирост скорости даёт очень заметный на некоторых задачах. Сейчас оно именно так и работает — через флаги процессора откатывается на SSE и работает через SSE. Но SSE в x64 тоже, есть мнение, что быстрее чем у M1 так как легаси там нет, а денег в оптимизацию вбахано от души.
На данный момент на топовых ARM NEON проигрывает SSE от мейнстримовых Интелов от 3 до 10 раз. Тупо за счёт бОльших частот и бОльшего числа вычислительных блоков у x86.
AVX же на некоторых задачах это ещё +50% от SSE. А AVX512 в случае преобразования типов в некоторых задачах, как a понимаю, вообще даёт кратный прирост в скорости и творит совершенно невероятные чудеса.
В плане векторных инструкций у NEON паритета с x64 вообще на горизонте не предвидится никак.
Хех… SSE какой? Их тоже немало. Очень интересно, что они там в доступных расширениях процессора в эмуляторе отвечают.

1) Основная часть Rosetta 2 не эмулятор, а AOT-транслятор.
2) Поддерживается всё, вплоть до SSE4.2, оттранслированное приложение получит вот такой ответ:


machdep.cpu.features: FPU VME DE PSE TSC MSR PAE MCE CX8 APIC SEP MTRR PGE MCA CMOV PAT PSE36 CLFSH DS ACPI MMX FXSR SSE SSE2 SS HTT TM PBE SSE3 PCLMULQDQ DTSE64 MON DSCPL VMX EST TM2 SSSE3 CX16 TPR PDCM SSE4.1 SSE4.2 AES SEGLIM64

Но SSE в x64 тоже, есть мнение, что быстрее чем у M1 так как легаси там нет, а денег в оптимизацию вбахано от души.

Это у ARM64 и современного NEON нет легаси — они были разработаны с нуля меньше 10 лет назад. А вот на x86 приходится жить с большими диапазонами опкодов, которые уже не переиспользовать, и переменной длиной команд.


На данный момент на топовый ARM с NEON проигрывает SSE от мейнстримовых Интелов от 3 до 10 раз. Тупо за счёт бОльших частот и бОльшего числа вычислительных блоков у x86.

В случае с M1 это уже не так.


А AVX512 в случае преобразования типов в некоторых задачах, как a понимаю, вообще даёт кратный прирост в скорости и творит совершенно невероятные чудеса.

Не творит он чудеса. При его использовании приходится ронять частоты, и я неоднократно видел упоминания, что версия с AVX2 из-за этого часто получается быстрее. Ну и отсутствие поддержки в AMD процессорах немного ограничивает применимость.
На M1 для многих подобных задач можно использовать матричные AMX инструкции, и получать ещё более впечатляющие результаты.


В плане векторных инструкция у NEON паритета с x64 вообще на горизонте не предвидится никак.

А для масштабных вычислений уже есть гораздо более универсальный и расширяемый набор SVE-инструкций, который реализован например в Fujitsu A64FX (используется в быстрейшем на текущий момент суперкомпьютере).

Линус думаю неплохо соображает в инструкциях процессоров (по крайней мере его заявления про бесперспективность атом — сбылись), и что-то он не очень жалует AVX этот…
www.phoronix.com/scan.php?page=news_item&px=Linus-Torvalds-On-AVX-512
Лайнус конечно молодец но в этом конкретном случае он лишь частично прав. С одной стороны сложно отрицать, что AVX512 очень мало где используется и в большинстве случаев дает не столь существенный прирост (процентов 30-40 относительно AVX2) чтобы вкладывать в него столько транзисторного бюджета. Однако его посыл «intel вы бы лучше просто взяли да ускорили ваши чипы в типовых юзкейсах чем всякие AVX512 мутить» странный — если бы инженеры intel могли, они бы так и сделали. Ну и конечно же ставить в пример AMD, которые по сути догоняли intel но не успели сделать свой AVX512, тоже несколько неправильно.
Результат Ryzen 7 3800X: 1285 single core, 8805 multi-core. Не уверен, что окупится M1.
Да чего уж там, TDP всего 105W против 15W у M1(вместе с видео), гулять так гулять, сравнивайте сразу с Ryzen Threadripper PRO 3995WX, у него 280W TDP.
Apple сделала устройство, которое преподносит пользователю что-то новое и непривычное, но не отбирает старое и привычное

А можно раскрыть мысль? Что же такого нового может принести мне, как обычному пользователю, м1?


позволяя запускать приложения, созданные под другую архитектуру.

Может конечно на Arm у Apple все изменится кординальным образом. Но на данный момент на intel — все не очень радужно. Например, при переходе на Bigsur часть софта отвалилась

Что же такого нового может принести мне, как обычному пользователю, м1?

Качественный скачок в производительности процессоров Интел и АМД после пинка под зад от Apple ))
Например, при переходе на Bigsur часть софта отвалилась

А на Catalina не вылетали ли на этом софте предупреждения что обратитесь к разработчику за обновленной версией а то могут быть проблемы?
А можно раскрыть мысль? Что же такого нового может принести мне, как обычному пользователю, м1?

Ну, например, ноутбук весом чуть более килограмма и с автономностью до 20 часов. Я могу ошибаться, но таких предложений на рынке я еще не видел. При этом производительность у него не на уровне печатной машинки (даже 4к можно обрабатывать вполне себе сносно) и прекрасный экран.
Например, при переходе на Bigsur часть софта отвалилась

К этому можно относиться по разному (так как у каждого человека свои задачи) но Apple достаточно легко расстаётся с legacy. В этом есть и минусы, бесспорно. Но для рядового пользователя это скорее плюсы, на мой взгляд.
х86 давно пора на пенсию, как и старперов которых его все еще продвигают.
Но активное охлаждение в новом маке на м1 — моветон.
Вариантов то нет. Индустрия слишком широкая, это не Apple, которая делает всё — от железа до софта.
Здесь кто-то делает железо, кто-то софт, и договорится им очень тяжело будет (вспомните внедрение USB шины в PC), пока железо появилось, потом оказалось что — нужна новая Windows 2000, вместо NT, чтобы USB пользоваться. А Apple просто выкатила IMac с USB, выкинув все старые порты для клавы\мышки
Но активное охлаждение в новом маке на м1 — моветон.
не совсем. Под продолжительной нагрузкой M1 в MBA начинает троттлить (роняя перф процентов на 15), т.е. какое-то активное охлаждение кому-то для его задач может и понадобиться. А текущее решение является оверкиллом скорее всего потому, что apple наверняка не хотели вводить редизайн корпусов параллельно с новыми чипами.
А текущее решение является оверкиллом скорее всего потому, что apple наверняка не хотели вводить редизайн корпусов параллельно с новыми чипами.

Предположу что ожидаемые 16+4 и выше более мощные камни будут требовать нормального охлаждения, а делать под разные процессоры разные корпуса было бы странно.
НЛО прилетело и опубликовало эту надпись здесь
Весьма интересные модели. Подумываю, не прикупить ли… в качестве дополнительного компа. В качестве основного он мне не подойдет (для вебразработки). Мало оперативки, нужно минимум 64Гб. Нужно зеркало, один nvme диск явно не очень хорошее решение. Другая архитектура, другая среда (отличающаяся от целевой) — это лишние проблемы. Ну и макось… я не смог на ней работать… Она идеальна для работы с парой-тройкой приложений, но не удобна для работы с десятками открытых окон. Всё упирается в специфическую реализацию рабочих столов — между несколькими окнами переключаться удобнее, чем в линуксе и винде, но когда у вас открыты десятки окон… всё становится плохо.

А вот в дополнение к рабочей станции на линуксе этот аймак для работы с фото, видео и прочим медиа очень интересно выглядит. И цена адекватная.
НЛО прилетело и опубликовало эту надпись здесь
У меня PHPStorm, Фотошоп, Три браузера с десятками страниц, Докер (Постгрес, и веб сервера внутри) постоянно открыты, я уж не говорю про мелочевку типа терминалов, почтовых клиентов, Pages и т.д. — хватает 8Гб оперативки на iMac 2014 года.

А можете скриншот сделать, если не трудно? А то обычно, когда так говорят, оказывается что в свопе еще 20гб+ лежит.
НЛО прилетело и опубликовало эту надпись здесь
При работе с vscode с тремя открытыми проектами, тремя браузерами и докером 16гб за глаза хватает. Больше 12гб особо не видел занятых
НЛО прилетело и опубликовало эту надпись здесь
Вот все хорошо, но на десктопе как раз хочется иметь возможность банально ОЗУ и диск добавить/заменить на побольше. Когда я вижу диск, распаяный двумя чипами на неизвлекаемой материнке, мне как-то грустно, хоть это на m1, хоть на чем-то другом.

Потому что домашний десктоп оплачиваю я сам, не работа, и, скорее, по остаточному принципу — хочется иметь возможность за недорого его немного расширять.

Вариант «купи себе внешний hdd» для меня не кажется разумный, машинка небольшая, обвешивать ее грозью коробочек не улыбает — тем более, что USB-диски имеют тенденцию контакт с кабелем терять…
НЛО прилетело и опубликовало эту надпись здесь
В общих чертах Вы верно уловили. Когда у продавца прибыль застилает глаза красота берет верх над возможностью расширения, возникает ситуация, когда можно купить несбалансированную (но практически нерасширяемую) машину, и ничего с ней потом не сделать.

Получается как-то странно: «у нас есть хорошая конфига задорого, а есть вариант для нищебро экономных, но сделан он так, чтобы они пожалели, что не купили тот, что задорого.» И это, надо понимать, комп для не самых богатых клиентов, это, скорее, домашная машина, либо машина — «офисная трудяжка».
НЛО прилетело и опубликовало эту надпись здесь
Логика у Вас примерно такая:
1. Качество отличное (я и не против)
2. Вы выбрали не ту конфигу (я не выбирал, я увидел на фото, что SSD теперь распаян — т.е. замена в принципе не обсуждается)
3. Выберите правильную, и не будете жалеть (согласен; но речь не о том, чтобы выбрать правильную конфигу изначально — а о том, чтобы выбранную раз конфигу можно было малой кровью нарастить; я не говорю про замену проца или на запихивание в тот же объем еще видекарты, которую просто некуда деть, а именно о «базовых» вещах: ОЗУ и диск)
4. Техника ликвидна, так что все пучком.

Вот с последним странно получается. Я слышал и не вашу трактовку, а несколько другую, экономическую: а) техника эпл дорогая, её не хотят продавать задешево, так что держат цену, б) в то же время другие желающие, не хотящие за это платить цену нового устройства, и видя, как ухудшаются новые устройства, радостно покупают более старые, которые хоть как-то можно было апгрейдить.

Да, хорошую технику (не хороший Мак, а вообще — «технику») нужно поискать. Даже у тех, кто старается делать ее, и то бывают косяки (и даже часто бывают). Но в последнее время вижу переход от подхода «хорошая машина имеет шанс расшириться» к «продай старое, купи новое, продолжай платить за право хранить свои данные небезопасно, не обязательно надежно и снаружи своего компа» — это немного беспокоит.

Да что там: сегодня объем флешки в том же iphone составляет от 50 до 100% от размера жесткого диска в иных конфигах ПК от эпл. Это при том, что это 128-256 Гб составляют в цене телефона и компа приличный кусок. Облако на тот же размер тоже небесплатно. При этом единственный вариант починить половину софтовых проблем ифона, по мнению поддержки — «сделать бекап, сбросить телефон, восстановить телефон». Другими словами, косяки софта эпл (при том, что железо и софт оплачены) нужно чинить, тратя еще свои деньги — апофеоз поддержки, которую при продаже техники обещают как «бесплатную», правда? Как мы понимаем, варианта добавить в свой комп купленный отдельно жесткий диск при таком раскладе для эпл оставлять просто глупо — и что, как мы видим, они целенаправленно делают?

В общем, спасибо за совет, но расширять размер диска на компе, продавая и покупая комп — это мне кажется перебором.
НЛО прилетело и опубликовало эту надпись здесь
А для повседневной работы вам 2 терабайт не хватает

Вы думаете, все покупают исключительно модели с 2 Тб дисками? В таком случае, Вы очень смелый мечтатель — либо любите все с ног на голову переворачивать.

Аппетит приходит от потребности, правильно? Человек, скажем, покупает себе комп с минимальным диском, а позже видит необходимость увеличить объем хранения. Что ему делать? Если в машине установлен заменяемый диск (помните это время — эпл тоже так умел!), либо место для второго диска — да не вопрос, несколько движений руками, и юзер доволен, затратив условные 300 долларов, два часа времени, и оставшись «при своем» в смысле настроенной системы и вообще своего («родного») компа.

Вы же мне предлагаете, очевидно, либо доплатить на этапе конфигурации ПК долларов так 800 (это чтобы сдать штатный SSD на 256 и поставить вариант на 2 Тб — т.е. сам диск стоит скорее 900), при базовой цене «миника» в 699? В таком случае, как мне, заказывая себе комп, угадать, сколько мне от него нужно будет через несколько лет, и как не переплатить полторы цены компа за апгрейд одного лишь хранения?

Получается, только «обжёгшись» на первой покупке (т.е. купив что-то, что окажется «маловатым»), можно сказать себе — нужно было брать побольше. В вашей логике — продавать на вторичном рынке, покупать новый (или тоже б/у?).

Основной косяк — это впаянный диск. Ни переставить в другой комп (скажем, я проапгрейдил машину, а диск из старого миника бы вставил как второй диск в новый: было бы здорово, но — физически никак!), ни заменить на другой, ни расширить путем замены же…

Думаю, это искусственное ускорение устаревания модели, поданное под соусом миниатюрности и улучшения прочих потребительских свойств.
НЛО прилетело и опубликовало эту надпись здесь
За $1,699.00
Мне кажется вполне справедливая цена. Люди берут.
Это тараканы в голове.

Вот с таким изложением и я согласен. А если по делу, то сделать из модульного компьютерика (при начинке на уровне ноутбука не «компьютер» он не тянет) — немодульный, да еще добиться, чтобы покупатель был не просто готов отдать 1700 долларов, но и доказывал бы всем, что это нормальная цена — эплы кругом молодцы!


А что «люди покупают»… «У нас и собаки горчицу едят», тут ведь от угла зрения и подачи многое зависит.


Миник хорош под многие задачи, но вот немодульность, решения которой, кроме продать-купить Вы не предложили — это нехорошо. Раз Вас это не напрягает, то — рад за Вас. Но я бы предпочел иметь пару слотов под ОЗУ, сменный, переставляемый в другой ПК, диск, и место для другого.

эплы кругом молодцы!
вы рассматриваете технику apple только с точки зрения расширяемости, которая нужна от силы 1% пользователей. Вот вы принадлежите этому высокомерному меньшинству и имеете на то право. Не хотите брать устройства с запаянными RAM и диском — голосуйте своей денежкой, покупайте модульное. Ну подумаешь по паре десятков других характеристик уступает, вам ведь это всё не важно, верно?
подумаешь по паре десятков других характеристик уступает

Ну уступает, так его и назвали так — «Mini» *смайлик*

А если серьезно, то, повторюсь, не вижу причин (кроме «нужно больше денег» «эпл — кругом молодцы»), почему в корпусе миника не встроить место для 2.5" диска.

А какой % от аудитории желается его расширения… это у Вас ошибка выжившего: аудитория и сложилась из тех, кому расширение не важно, и кому сумма в полторы сотни тысяч руб. кажется небольшой за такой уникальный аппарат. Те же, кто считает деньги, или не любит мак, или не хочет остаться с нерасширяемым ПК, из которого даже диск не вытащить, случить что с этим ПК (т.е. вариант «сгорел комп -> купил себе новый, переставил диск -> живи с данными дальше» в принципе нереализуем) — они в «аудиторию» не входят, т.к. заранее по каким-то из этих критериев миник не стали покупать.

P.S. Это как с блоками питания и наушниками в последних iPhone — цена на изъятое из поставки не уменьшилась против ежегодно-привычной, но аудитория (особенно умиляет, что часть обозревателей — с восторгом!) это проглотила.
Те же, кто считает деньги
вполне могут купить более дешевый компьютер. Опять же, устройства apple предназначены в первую очередь для рынков стран первого мира, где $700 это менее трети средней зп, а не более трех.
или не любит мак
субъективно не любите мак — не покупайте, в чем проблема? Или apple должны были заставить пользователей покупать их технику?
или не хочет остаться с нерасширяемым ПК, из которого даже диск не вытащить, случить что с этим ПК
повторюсь: подавляющее большинство пользователей не думает об этом. И не надо мне рассказывать про ошибку выжившего, тем более на хабре, где собрались технари, из которых действительно куда больший процент умеет обращаться с техникой
P.S. Это как с блоками питания и наушниками в последних iPhone — цена на изъятое из поставки не уменьшилась против ежегодно-привычной, но аудитория (особенно умиляет, что часть обозревателей — с восторгом!) это проглотила
реальная причина в том, что 5G чипы от qualcomm, который по сути монополист, стоят больше чем эти зарядник + наушники + 4G чип.
Так Вы уже про 700 заговорили. А 2 Тб диска и +8 Гб ОЗУ повышают планку помните насколько? Тут и в стране первого мира з/п не хватит. И еще раз — мы говорим про миник, а не про крутой такой mac pro, правда? Да, новый мир с новыми чипами, быстрота, но — это все равно «ноут в коробочке», со всеми вытекающими.

Про Хабр Вы как по своим комментам прямо прошлись — здесь явно больше 1% аудитории захотело бы что-то проапгрейдить в компе, и не все (далеко не все) готовы от себя, от семьи оторвать 170 тыс на довольно сильно ограниченный комп. Ну серьезно, давайте не будем.

Мой поинт ровно в том, что эпл выкорчевала возможность расширения, которая раньше была, и это не рост, это падение, но, как в анекдоте, получаем строчку в счете «Если прокатит» — и пипл хавает люди несут деньги (а потом, не сильно снижая, просят на вторичке)

Про чипы 5G лично не смешно читать. Никогда не видел толп на улице, скандирующих «эпл, мы заждались 5G-поддержку!» 5G в айфоне — самая незаметная фича, никак, смею думать, на продажи не повлиявшая. Теперь же мы имеем разброс показаний от эпла: 1) то они выкинули БП и наушники, потому что и так этого на руках много (только непрочные шнурочки Lighting как распадались, и были нужны, так и остаются востребованы), то 2) то выкинули из-за экологии, то 3) у них в привычных тысяче долларов не хватало на 5G-чип, и они экономили на чем могли, в результате БП себестоимостью в полбакса спас миллиардный эпл…

А покупать или нет мне что-то — последнее время на экосистему эпл смотрю не в стиле «она растет, и будет только лучше!», а именно как «когда и существующее уберут?» Вот Вы мне в полтретьего ночи по МСК доказываете, что эпл торт (а я всего лишь намекаю, что дороговатый для такого качества взбитых сливок), но через год-два, есть шанс, что мы этот вот миник будем с ностальгией вспоминать, потому что новый миник будет еще менее адекватным, и окажется кастрирован ограничен еще в чем-то базовом.

Не знаю, может, встроят таймер времени работы в сутки, на pro моделях его можно будет настраивать на величины до 24 часов (но все, что сверх 10 часов в сутки, потребует покупки подписки), а на не-pro будет жестко суточные 9 часов, и все.

Хорошей ночи!
Тут и в стране первого мира з/п не хватит
вы бы хоть погуглили какие там зарплаты в странах первого мира, ей богу.
Мой поинт ровно в том, что эпл выкорчевала возможность расширения, которая раньше была, и это не рост, это падение
так делает вся индустрия, но виноваты видимо только apple.
Про чипы 5G лично не смешно читать. Никогда не видел толп на улице, скандирующих «эпл, мы заждались 5G-поддержку!» 5G в айфоне — самая незаметная фича, никак, смею думать, на продажи не повлиявшая
я так погляжу вам виднее что там влияет на продажи и вам решать кому что нужнее, 5G или расширяемый SSD…
у них в привычных тысяче долларов не хватало на 5G-чип, и они экономили на чем могли, в результате БП себестоимостью в полбакса спас миллиардный эпл…
хочется вам посоветовать почитать книжки по экономике. И учтите: у эппла не самая высокая маржа в индустрии. Но вам ведь не интересно стоит ли продукция apple своих денег, вы пытаетесь из отсутствия apple в бюджетном сегменте натянуть вывод что их продукция слишком дорогая, совершенно игнорируя что они предлагают за эти деньги.
А покупать или нет мне что-то — последнее время на экосистему эпл смотрю не в стиле «она растет, и будет только лучше!», а именно как «когда и существующее уберут?»
это всё субъективно. Вот я смотрю на мнение человека, который явно не разбирается, и думаю, имеет ли смысл пытаться ему что-то объяснять?
НЛО прилетело и опубликовало эту надпись здесь
Я пиндосовские цены смотрел для примера, налоги-то не учел, тут Вы правы.
А жадность недооценивать: они молодцы, они продают не технику, а легенду, и «веру в технику». Косяков что в железе, что в макоси хватает (да где их нет), но техника неплохая (на любителя).

Про жадность чаще вспоминают, когда идут с эплом в ремонт: в России ремонтом заведуют партнеры, сам эпл и не найти (даже русскоязычная поддержка не в России), есть какое-то юрлицо, и вертит ОЗПП как хочет — я бы так сказал, что миллиардная корпорация странно выглядит, стараясь разом и к покупателям после покупки задом повернуться, и продать следующую дозу модель поскорее.

Но, повторюсь — им же это удается!
Ремонт… Я когда покупал миник, решил сэкономить — взял 8 гигов, память же меняется. Думал попозже смогу выделить денег и поменять в офсервисе. Почему там — да чтоб с гарантии не слететь. Нашёл такой, задал им вопрос. Когда они озвучили стоимость, я как-то перестал считать самих эпплов жадными.
На чёрном фоне - письмо из СЦ, на белом - конфигуратор на сайте эпол

Вы крайне недооцениваете жадность этих утырков
Вы попробуйте к какому-нибудь dell xps или lenovo carbon x1 так же память с диском докинуть, и примерно те же самые цифры получите. Это не жадность, это у примерно всех производителей так.
Они так торопились выпустить мини на m1 что просто запихали новое железо в старый корпус, даже оставили старый бп на 180 ватт, с учетом того что потребление нового железа в районе 30 ватт…

Во-первых, это была осознанная стратегия — чтобы все обзоры сконцентрировались не на внешнем виде, а на изменениях архитектуры.
А во-вторых, вы забываете про 2xThunderbolt4 и 2xUSB-A, каждый из которых может обеспечивать 10-15 Вт.


Просто так перепроектировать и заново сертифицировать давно беспроблемно работающий блок питания, чтобы он вместо 180 Вт выдавал только 120 — неразумная трата средств, учитывая, что следующие поколения Mac Mini почти гарантированно будут в других корпусах.

Меня расстроило то что с таким железом и энергопотреблением можно было сделать намного более миниатюрный корпус.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.