Как стать автором
Обновить

Комментарии 172

Интересны тесты, но что-то подсказывает, что это всё тот же не модифицированный M1. Для большого компьютера это как то… мало.


Понятно, что они нормальный процессор ещё не доделали, это очевидный переходный вариант из их мобильных.

Поэтому, на страничке https://www.apple.com/ru/imac-24/ сначала фото (все цвета)


Потом про толщину (вдруг у Вас мало места на столе)
Потом про вес (я сдержался)
Потом про thunderbolt
Кабель питания на магните и окрашен в тон
Описание качества дисплея
Камеры
Микрофонов
Динамиков
Реклама чипа м1

Удивительно, ничего про ssd

Ну это же не Sony, а Apple

Интересно, 16Гб — это аппаратный предел?

да
в m1 память встроена в процессор и из того, что я видел, похоже что все упирается в возможности имеющегося у Apple производственных возможностей на момент релиза первых m1. Думаю к осени уже переоснастят и будут выпускать более продвинутые модели с большим количеством памяти.

The memory limit for the ARM Macs probably comes from the maximum size of the memory die that they can place in the MCM, which contains the CPU. The MCM (Multi-Chip Module) is several dies (separate silicon chips), all placed in one package. MCMs allow a much faster connection between the separate chips and make manufacturing easier as there is one package to solder rather than 3.

I don’t see there being any difference between the Intel and ARM Mac mini, for instance, in terms of memory usage. They both use integrated graphics, meaning they have GPU cores which share RAM with the CPU. They will both use about the same amount of memory.

I think the limit on RAM on the ARM Macs is therefore due to what Apple could design and manufacture in the schedule they gave themselves rather than due to a difference in the architecture of the M1. They probably think, correctly, that 95% of users need 16 GB or less of RAM.
«Я не вижу разницы между Intel и ARM Mac mini, например, с точки зрения использования памяти. Они оба используют встроенную графику, то есть у них есть ядра графического процессора, которые совместно используют оперативную память с процессором. Оба они будут использовать примерно одинаковый объем памяти.»
Разница хотя бы в расстоянии между gpu и кристаллами памяти — при использовании DIMM оно заметно больше, а для встроенного видео это существенно.
Разница хотя бы в расстоянии между gpu и кристаллами памяти — при использовании DIMM оно заметно больше, а для встроенного видео это существенно.

Во-первых, латентность DIMM (DDR4) заметно ниже встроенной LPDDR4.
DDR4 60-80ns (intel-amd)
LPDDR4 96ns (M1, 98ns — Tiger Lake)
Установка LPDDR поверх упаковки — вопрос в первую очередь компактности и цены, а не производительности.
Тут правда есть нюансы, а именно отличия в работе 2*64-бит против 8*16-бит.

Во-вторых, GPU спроектированы так, чтобы компенсировать высокую латентность.
Никогда не интересовались, сколько занимает доступ к L1 кэшу на GPU?
twitter.com/Locuza_/status/1032691135582560256
В AMD GCN так:
L1 кэш-попадание 114 тактов
L2 кэш-попадание 350 тактов
На частоте 1ГГц имеем L1 кэш хит за время полного обращения к памяти на CPU.

К чему вообще акцентировать внимание на «встроенности»? Дискретный чип ничем не отличается от встроенного в этом плане.
То есть можно набрать 16 ГБ видеопамяти из рассыпухи, разместить в соседней тумбочке, закинув шлейф подлиннее, и производительность не ухудшится? А с рассинхронизацией широкой параллельной длинной шины как быть? И не она ли одна из причин высокой латентности?

У дискретного чипа своя шина, своя память. Интегрированное видео конкурирует с процессором за контроллер памяти, шину и саму память. eDram/HBM помогают этого избежать.
То есть можно набрать 16 ГБ видеопамяти из рассыпухи, разместить в соседней тумбочке

Из какой рассыпухи? Посмотрите на размер модуля DIMM и расстояние, которое проходит сигнал от каждого чипа через плату до процессора. Это расстояние довольно большое, тем не менее латентность меньше чем у LPDDR чипа, распаянного прямо на упаковке.
Не понимаю зачем вы спорите — я вам дал конкретные цифры.

Пока задержка на передачу составляет незначительную часть латентности модуля, можно хоть в тумбочке держать.

А с рассинхронизацией широкой параллельной длинной шины как быть?

Посмотрите на материнскую плату, особенно серверную. 8 каналов по 64 бита.
Проблема с «рассинхронизацией широкой параллельной длинной шины» решена.

И не она ли одна из причин высокой латентности?

Нет. Причина высокой латентности это физический принцип работы DRAM.

Интегрированное видео конкурирует с процессором за контроллер памяти, шину и саму память.

Фигня. Современный GPU компенсирует тысячи тактов латентности без проблем.
А вот ПСП процессор может у GPU отжирать заметно.

eDram/HBM помогают этого избежать.

Латентность у HBM, насколько я знаю, ещё хуже чем у LPDDR4 и тем более у DDR4 :)
То есть можно набрать 16 ГБ видеопамяти из рассыпухи, разместить в соседней тумбочке, закинув шлейф подлиннее, и производительность не ухудшится?
А разве на видиках GDDR не так расположена, в отличие от распайки с чипом у Эпл? Ну то есть на видиках расстояние выше, чем размер чипа — раза в два.
В компах обычных вообще через разъем оперативная память подключена.
При этом для LPDDR4 в ноутах латентность судя по тестам была хуже, чем у внешних модулей DDR4. Выигрывают по потреблению она вроде, а не по скорости/латентности.
«А разве на видиках GDDR не так расположена, в отличие от распайки с чипом у Эпл?»
«У дискретного чипа своя шина, своя память. Интегрированное видео конкурирует с процессором за контроллер памяти, шину и саму память.»
Ну и сниженное потребление в LPDDR это больше про напряжение питания ради снижения нагрева и продления работы от аккумуляторов в мобильных устройствах, а уже как следствие некоторое терпимое снижение производительности. Ну и организация памяти имеет значение.
Ок, Xbox Series X, там проц примерно той же производительности, видик в разы мощнее, чипы на расстроянии в половину размера чипа по фотке если смотреть, а там опять же GDDR.
Пишут, что «у Xbox Series X имеется 16 ГБ ОЗУ, распределённой на два кластера (10 ГБ и 6 ГБ)». Вероятно ОЗУ и видеопамять. Консоли оптимизируют по соотношению игровой производительности к цене, PS5 теперь исполнена на SoC. Проработка технологичности и экономия в конструкции прототипа делает разработку сложнее, зато производство партии заметно дешевле.
Встроенное в процессор видео всё же сравнивать с оптимизированной архитектурой кмк не стоит.
Вероятно ОЗУ и видеопамять.
Нет, у них разные пропускные способности из-за разного количества чипов, как я понял из описание. Память общая как раз.
Встроенное в процессор видео всё же сравнивать с оптимизированной архитектурой кмк не стоит.
В смысле? Там видик так же встроен в архитектуру, просто более крутой. Апушка, она и есть апушка.
У минимального встроенного видео и видео, встроенного в игровую консоль разные задачи.
Странно, в 3400G видик делает тоже самое, что в консоли. Люди — играют в игры на них. В чем глобальное отличие, кроме того, что при одинаковом количестве транзисторов в чипе, в консоли видик раз в 5 производительнее M1, который вроде не хуже, а то и лучше видиков в простых процессорах интела и амд? Умением играть 4k в 60 fps?
А можно ссылку, оч любопытно.
MacBook на M1 у жены сильно радует, но себе брать с 16 гб не хочу.
Читаю по ссылке раз:
Chinese maintenance engineers can already expand the capacity of the Apple M1. The 8GB memory has been expanded to 16GB, and the 256GB hard drive has been expanded to 1TB.

Читаю по ссылке обсуждение:
twitter.com/caribbeanxblue/status/1378731240782757889

Вывод: 32 Гб поставить невозможно сейчас.
Да, я ошибся. В двух чипах можно только теоретически по цене золота. Практически ставили 16 ГБ.

Где паяли 32 Гб? Я пока видел только перепайку модели 8 Гб на 16 Гб.

16 ГБ — виновен. А больше чипов нельзя поставить, так как там тайминги на минималках за счёт близкого расположения чипов и небольшого их количества и производительность заметно просядет.

Перестаньте распространять вот это про "тайминги на минималках".
Там обычная память LPDDR4x, тайминги которой идентичны мобильным платформам на Intel/AMD. Расположение чипов памяти рядом с CPU нужно исключительно для уменьшения энергопотребления.


А ограничение объёма там в контроллере памяти. Его таким спроектировали ровно под требования конечных устройств.

Тайминги зависят и от чипов и от длинны проводников и количества точек подключения. Например, при четырёх слотах памяти нельзя достичь тех же таймингов, что и при двух, даже если ставить одни и те же чипы.
Тайминги зависят и от чипов

В современных ноутбуках практически одни и те же чипы LPDDR4X стоят.


и от длинны проводников

Можете прикинуть, какой величины разница получается между 5 мм (грубая оценка для M1) и 5 см (типичный ультрабук), например? Подсказка: на фоне задержки DRAM её не видно.


и количества точек подключения

Зависимость latency от количества подключенных чипов — это внутренние ограничения конкретных контроллеров памяти в процессорах, никаких физических причин для этого нет.


На всякий случай, приведу реальные измерения задержек памяти мобильного AMD Zen 2 (отсюда) и Apple M1 (отсюда) — смотреть на жирную оранжевую линию ближе к правому краю.

Ёмокстb цепей 5мм и 50мм отличаются в 10 раз и более. А на 5 см уже нужно учитывать эффекты распространения волны.

Ну так учтите. Сколько выходит?
И потом объясните, как M1 с "таймингами на минималках" и близкими чипами имеет ровно ту же задержку доступа, что и обычный AMD Renoir (и Intel Tiger Lake)?

Тайминги зависят и от чипов и от длинны проводников и количества точек подключения.
Ок, расскажите, в каких ноутбуках тайминги будут ниже — с распаянной LPDDR4x или с сменными модулями DDR4?
Например, при четырёх слотах памяти нельзя достичь тех же таймингов, что и при двух, даже если ставить одни и те же чипы.
Одноранговая и двуранговая вы ещё забыли, если что.
Кстати, основной упор не «нельзя». Задирают напряжение и достигают, просто память деградирует быстрее. Но это ж ещё зависит от того, как спроектирована материнка.
Тайминги завият от чипа и разводки. Минимальные достижимые тайминги будут заметно ниже на распаянной памяти.
Напряжение ни при чём в данном случае.
Тайминги завият от чипа и разводки.
Ну вот распаяли LPDDR4x в ноуте или поставили внешний ddr4 — где ниже будут, а?
Напряжение ни при чём в данном случае.
а почему тогда у людей получается брать те же тайминги и частоты путем изменения разных напряжений на материнке, что и в плане двух планок? Просто эти режимы выходят за рекомендуемые и ведут к деградации, а значит проблема больше в том, что производители оптимизируют на определённое количество каналов свой контроллер.
При прочих равных тайминги ниже будут там, где ёмкость ниже. А ёмкость ниже там, где дорожки короче и меньше точек подключения.

Прекратите пороть чушь, ей больно.


Ëмкость проводников может влиять только на длительность переходного процесса (полутакта), и эта длительность видна прям из основного параметра памяти — частоты шины.


Тайминги — это количество тактов, за которые память готова ответить на запрос. У энергоэффективной LPDDR4X тайминги намного выше, чем у обычной DDR4, что объясняется другой внутренней архитектурой чипов.


Общая же задержка складывается из архитектуры кэшей и частоты и таймингов памяти. Для разных процессоров даже с идентичными характеристиками памяти она может быть разной.


Для сравнения с приведёнными выше значениями для мобильных платформ (LPDDR4X-4266) — десктопные Intel Core i7-11700K и AMD 5950X — на одной и той же DDR4-3200.

Ну, блин, тогда запустите четыре планки DDR4 на 1600 МГц (3200 МТ) на минимальных таймингах. Не взлетит. Две будут отлично работать, а четыре — нет. Или частоту понижать или буферизированную память ставить и тайминги упадут.
Ну, блин, тогда запустите четыре планки DDR4 на 1600 МГц (3200 МТ) на минимальных таймингах.
А я вам уже отвечал — запускали на тех же таймингах люди под АМД. Задирая напряжение.
Кстати, а на Т-топологии частоты выше при каком количестве плашек, не подскажете?
При прочих равных тайминги ниже будут там, где ёмкость ниже
Я вас конкретно спрашиваю:
Ну вот распаяли LPDDR4x в ноуте или поставили внешний ddr4 — где ниже будут, а?
Какие прочие равные?
Угадайте, как говорится, вид оперативки:
image
Я не зря вас конкретно про «тайминги» спрашивал в разрезе разных типов ддр.
Вы одинаковые чипы распаяли? Количество чипов на линии одинаковое? Тогда тайминги будут одинаковые. Но на самом деле нет — т.к. у вас на «внешнем DDR4» банально разъём присутствует и даже если достичь одинакового качества топологии, то достижимая нагрузочная способность на линию и частоты всё равно будет ниже.
На распаяной памяти вы можете получить четыре банка на минимальный таймингах и максимальной частоте, а на внешней — нет. На внешней памяти у вас максимальная частота сразу на 20% упадёт. Вы, конечно можете на внешней играться с напряжениями и таймингами и оно даже может на некотором сочетании планок и настроек заработать, но это будет уже области гадания и везения.
Вы одинаковые чипы распаяли?
Скажите, вы по русски читать принципиально отказываетесь?
Я вас конкретно спрашиваю:
Ну вот распаяли LPDDR4x в ноуте или поставили внешний ddr4 — где ниже будут, а?
Какие прочие равные?
Вы о чём спорите я даже не пойму? Вы утверждаете, что длина проводников, количество разъёмов и количество подключений не влияет на достижимую скорость работы памяти?
Я очень хотел бы посмотреть, как вы стабильно заведёте 4 планки LPDDR4 (не говоря о 4x) на максимальной штатной частоте (1600 МГц).
И да, ниже стабильно-достижимые тайминги будут на распаянной памяти. Естественно, что тайминги мы измеряем в нС, а не в тактах, так вы просто частоты равные даже не получите на хороших чипах.
я от вас пытаюсь прямой ответ получить на прямой вопрос, вы юлите и уходите.
Ну вообще-то там только с одной стороны два чипа памяти, никто не мешает поставить ещё шесть с оставшихся сторон. Хотя так, конечно, корпус вырастет и ног станет больше, но расстояние до памяти ненамного увеличится.
Согласование такой лини будет сложнее.
Какая-то хлипкая конструкция и очень сомнительная цветовая палитра, на это же постоянно смотреть придётся, а оно вырвиглазное.
Всё вполне в духе традиций.
Заказывайте серый — он всегда в моде.

iMac M1
iMac G3
а зачем нужен автомобиль в базовой комплектации (который никому не нужен)? Очевидно, чтобы честно написать «Цена от ...»
Не тот случай. Авто в стоковой комплектации может потянуть ещё на половину стоимости при дооснащении опциями, тут же доукомплектация памятью невозможна.
Скорее всего позже появятся модели с большим объёмом ОЗУ.
На MacOS с 8 ГБ вполне комфортно можно заниматься многими делами. Интереса ради посмотрел сколько памяти программ сейчас загружено — 1.3 Гб, это Safari с несколькими вкладками и проигрывающимся видео на YouTube, мессенджер, почта, Numbers, Pages.
Для таких задач не нужен компьютер за такой ценник.
Смотрю на свой комп, тянущий миллионы полигонов в Zbrush и 4-8к текстурирование в Substance, который обошёлся мне процентов на 30 меньше минимальной комплектации этого чуда, и понимаю, что что-то тут не так.

Mac выбирают не за то, что он на 30% дороже или быстрее, его выбирают за комфорт при использовании.


Хотя, справедливости ради, надо отметить, что ужасный touchbar вверху — худшее, что в него встроили. Этот реально замедляет работу на нем прямо реально.

А монитор с HiDPI если плюсануть? И периферию?

HiDPI мониторы давно стоят копейки.
60 Гц — прошлый век.

Прям копейки? Ну-ка ну-ка? Не забудь IPS, широкий цветовой охват и яркость 600нит. Ссылочку пожалуйста сразу. А если там будет больше 60фпс — совсем красота, заберу сразу
Прям копейки? Ну-ка ну-ка?

Купил 4к за 27 тысяч рублей, сейчас такие от 25. Да, *VA и яркость меньше, но лично мне глазовыжигатель не нужен.
А если там будет больше 60фпс — совсем красота, заберу сразу

Пока только или-или. Хотя если у вас есть деньги на видеокарту 4к@120, то и парочка тысяч баксов на монитор заваляется ))
Не так тут то, что мак это не только железо, но и куча нормально написанного и удобного родного софта в комплекте, который будет обновляться пока система сможет его тянуть, то есть более пяти лет. Обычному пользователю мак удобен «из коробки», он добротно сделан. Можно ли купить дешевле и настроить другую систему для своих задач, чтобы она работала лучше чем мак? Однозначно да, но есть много людей, которые не хотят играть в эту лотерею — вот для них он и продается.
Так и этот аймак спокойно потянет «миллионы полигонов в Zbrush и 4-8к текстурирование в Substance»
Кому-то хочется красивый и компактный моноблок для таких задач, и они его вполне себе купят
не подскажете какой компьютер?
В чем вообще смысл существования данной модели?

В связи с пандемией резко вырос спрос на устройства для учёбы/работы из дому для непрограммистов. Я бы, например, взял такой для дочки чтоб в школу «ходила». Для Teams, Office и Сафари 8 Гб хватит, компьютер красивый, сочные цвета на ярком в 500 nits мониторе, быстрый процессор, обещают три микрофона студийного качества и улучшенную камеру.

PS: понятно, что для такого софта можно найти/собрать компьютер и за треть ценника Apple, но мне нравится macOS, да и симпатичный он. Для некоторых людей в некоторых ситуациях цена не главный критерий, тихий изящный Mac c хорошим монитором может найти покупателей.

PPS: говорю «взял бы» потому как сейчас у неё MacBook Air M1, но если бы покупал сейчас, то выбрал бы десктоп из-за большего монитора, лучшей камеры и микрофонов.
Ну я как-то на ноуте, которому уже десяток стукнул живу, причём даже под gentoo.

На маке с M1 правда какая-то магия с оперативкой работает. Я лично сейчас с него печатаю (с восьмигигового), в браузере у меня зачем-то 300 вкладок, и за другими открытыми приложениями можно не следить вообще. В том числе видео монтировал, ничего не закрывая.
Программировать на нём не пробовал, к сожалению, про этот опыт рассказать не могу.


Но изучите обзоры/сравнения, 8 гигов там очень хорошо работают по многозадачности, на удивление. При том, что на windows-десктопах мне 16 гигов некомфортно, у меня на обоих по 32.

На маке с M1 правда какая-то магия с оперативкой работает.

Она и не только на M1 такая. Вроде они называли её трехсегментной:
1. основная оперативная память
2. активные кэши (включая агрессивный кэш над файловой системой)
3. зипованный своп в памяти
4. своп на диске

Когда в (1) память подходит к границе, то из (2) часть удаляется, часть зипуется и переносится в (3).
Если (3) достигает определенных лимитов, то он сбрасывается в (4) выделяя память для (1).

Где-то унутри документации разработчиков ядерных у них читал про это. Сейчас не смог быстро найти ссылку.

Были слухи про повышенную утилизацию SSD. Возможно с этим связанно.

OSX довольно агрессивно сжимает память. Когда Макбук орёт как аэроплан, это не всегда интенсивные расчёты. Зачастую это приложение с утечками памяти (Firefox), вынуждающее ядро активно сжимать странички. Впрочем, при всём этом вое система остаётся отзывчивой.
Вроде они называли её трехсегментной

Это и на Windows так, и на Linux кажись настраивается, тут никакого открытия нет.
Открытия нет. Но, насколько я помню, такой подход первыми сделали в Mac OS, потом подтянулись Linux и только потом Windows. Но могу ошибаться. Давно уже читал про это.
В Windows кеши с подкачками были ещё со времён Windows 2000, а скорее даже раньше. В висле добавили агрессивное заполнение кеша в простое, в десятке сжатие.

Мы все-таки на техническом ресурсе, давайте оставим "магию Apple" для сайта woman.ru.


в браузере у меня зачем-то 300 вкладок, и за другими открытыми приложениями можно не следить вообще.

Круто что в макоси смогли сделать работающую подкачку.

да память они сжимают. Возможно, из-за расположения "впритык" оно быстрее, потому что на интеле они тоже её жмут.

Сколько память не сжимай и не свапай, больше ее не станет.
Напоминает недавние статьи о свапе в linux.

попробовал на 8 гб docker + pycharm, грустно всё. PyCharm через несколько минут работы начинат писать, что память всё

Вы забыли поставить галочку "Магия Apple"

Пробовал на 8Г vmware + idea — все норм. Немного фризится при переключении окон, но работает.
Мне кажется, в вашем случае проблема в докере, он зело глюкав под макосью.

Сейчас будет небольшой удар реальностью, заранее прошу прощения за нанесенные увечия.

Вот Вам простой наблюдаемый факт: мой 5 летний проект в Premiere Pro содержит более 3.5 тысяч файлов, при попытке первого открытия (с кэшированием) на компуктере под управлением Windows, даже с 32 GB RAM, у этого чуда инженерной мысли нет абсолютно никаких шансов не крашонуться. Но стоит мне открыть тот же проект на своем Macbook c 8GB RAM, так сразу же все прогружается и кешируется, и что удивительно без единого краша. На Mac OS Premiere Pro просто работает и не плачет по поводу недостатка оперативки.

Никогда не забуду как купил первый iPad в 2010 году и закинул на него Quake 3 Arena. Летала она в 50 кадров, при процессоре в 1 ГГц/1 ядро и оперативе 256 МБ. Спустя год-два вышел планшет Samsung 2ГГц/2 ядра/2ГБ RAM, вот думал оторвусь в той же Quake! Ага… 17 кадров еле выдавал…

Из этого можно сделать однозначны вывод, главное не цифры, а оптимизация, ведь когда ее нет, даже 32GB оперативки или супер процессор не спасет.

У меня все =)
В поиске рецепта лечения Illistrator'а, перестающего нормально открывать свои файлы после определённого порога сложности набрёл на форум, где обсуждался данный вопрос. Один из пользователей написал, что вынужден использовать старенький Macbook, т.к. только на нём взлетает определённый шаблон. Шаблоном оказались подготовленные к печати доллары.
Самый действенный из найдённых рецепт для Windows — почаще сохранять промежуточные копии.

Я дико извиняюсь, но Q3 у меня работал на Celeron 500, 128 оперативки, GeForce 2 MX 400.
60+ fps.
Что за магическая оптимизация была там?

В каком разрешении, 800х600?
У iPad разрешение экрана 2048x1536, а GPU в Apple A4 работает на тех же 200МГц что и ваш GF2MX400, ПСП примерно такая же (3,2ГБ/c на всё).

1024 х 768


на тех же 200МГц

Сейчас бы мегагерцы видеокарт сравнивать....


Из этого можно сделать вывод, что Кармак в девяностых оптимизировал Q3 для айпэда, который вышел в 2010?

1024 х 768

Т.е. фреймбуффер в четыре раза меньше.

Сейчас бы мегагерцы видеокарт сравнивать....

А почему бы не сравнить? Не для того ли вы написали спеки вашего компа?
Я просто говорю о том, что эти GPU примерно одного уровня, вплоть до идентичных показателей ПСП, филлрейта и т.п.

hw-museum.cz/vga/170/asus-geforce2-mx400-64-mb

ROP 2
TMU 4
Clock 200 MHz
Pixel fillrate 400 MP/s
Bandwidth 3200 MB/s

gadgetversus.com/graphics-card/imagination-powervr-sgx535-specs
Apple A4 GPU (PowerVR SGX535)
Execution units 2
Pixel fillrate 0.4 GPixel/s
Bandwidth 3200 MB/s

Из этого можно сделать вывод, что Кармак в девяностых оптимизировал Q3 для айпэда

Это исключительно ваши фантазии. Ни про Кармака, ни про оптимизации я ни слова ни сказал.

Вы бросаетесь спеками, которые по-сути аналогичны озвученному айпаду, и удивляетесь что он работает так же или даже лучше.

gamekeeper
21.04.2021 в 12:15
<некоторый контент пропущен>
Из этого можно сделать однозначны вывод, главное не цифры, а оптимизация, ведь когда ее нет, даже 32GB оперативки или супер процессор не спасет.


У меня все =)

>> У меня все =)
Вы в двух соснахниках заблудились? У нас даже разное количество букв.

Ещё раз — про оптимизацию я ничего не говорил. Я лишь отметил, что устаревшее железо, которым вы бряцали, примерно аналогично установленному в iPad 2010г.

Что до вами отквоченного вывода, то он банален по своей сути как «вода-мокрая» и «солнце-яркое» и с ним сложно не согласиться.
Если программа крашится на исправном компе, то это проблема программы, а не компа. ИМХО совершенно очевидный тезис для любого объективно настроенного человека.

А то, что некий продукт с одним и тем же названием, но под разные платформы, ведет себя по-разному, говорит исключительно о криворукости его создателей.
Меня недавно мой старый 13 pro 2014 года с 8 гигами оперативной памяти сильно удивил.
Оказывается что FinalCut на нем совершенно спокойно можно обрабатывать 4k с навигацией в реальном времени (рендер будет долгим, но вменяемым). Premier Pro, правда, не тянет. Я не знаю что они там оптимизировали, но довольно мощный десктоп с виндой и premier pro такого близко не может. Приходится использвать прокси.
Ладно Premiere Pro, у меня ноут на винде после 3 месяцев работы начал тормозить при том, что там используется пакет из Chrome+Outlooks+Slack. Последний вешается почти постоянно теперь. Да, можно аргументировать «кривая поделка на электроне». Но мак-то спокойно тянет. При том, что на у меня маке перманентно открыто десятков программ, Chrome с сотней вкладок, докер и т.п… И все это работает без перезагрузки недели. И там и там — 32Gb оперативки.

А я то первые 3 месяца было радовался — ну вот хотя бы для офисной работы windows стал нормальным.

Может у яблока получится сделать то, что не получилось у MS и хромбуков. Некий ПК для потребления контента, а ля стационарный планшет или smart tv 3.0.

Для потребления контента они айфон уже выпустили. А тут рабочая машина с 8 Гб памяти и 256 Гб ссд за 130 000 рублей *тянет руку к лицу*
Ну тут все таки стоит добавить что «с хорошим монитором». Почему то 4k мониторов с нормальным DPI на удивление мало — вижу только LG Ultrafine 4k за почти что $1k. За ними сейчас охота, на авито их сметают мгновенно ;(

Почему то большинство производителей делают 27" 4k, что выглядит, прямо скажу — мыльно. Может быть особенности виндового скейла, не знаю в чем причина, но вот сделать дешевый монитор с простым удвоением пикселей относительно старых добрых 108 DPI что то не получается.

И тут получается что за за эти бабки мы получаем ну неплохой комп + хороший монитор, но в целом дешевле чем если бы мы покупали это по отдельности.
Монитор, который нельзя использовать как монитор.
Оч странный коммент. Моноблок есть моноблок, у него свои цели и задачи. Тем кому нужен отдельный моник — могут купить Mac Mini, Bluetooth клавиатуру, мышь/трэкпэд и этот Ultrafine.
Да нет, коммент дельный. Я жалею, что моноблоки/ноутбуки нельзя использовать как внешние мониторы для чего-то еще. Video-in было бы очень крутой опцией.

Не знаю, как на новых аймаках, а прошлые было можно использовать как монитор, подключив кабелем mini-DisplayPort. Но, сюрприз (даладна) — только с другими эпловскими компьютерами. Т.е. технически-то не мешает ничего.

Сильно старые модели можно было и к другим компам цеплять. Вот нагуглил:
Модели iMac 27”, выпущенные до конца 2012 года, могут выполнять роль внешнего монитора также для PC или игровых консолей. Для их подключения следует соединить iMac и целевое устройство кабелем Mini Displayport либо кабелем-переходником. При использовании Mini Displayport — HDMI доступен вывод звука на iMac, в то время как при использовании Mini Displayport — DVI передается только звук.
На современных нельзя. iMac 2019 уже не подключается как внешний монитор к ноуту. А жаль, очень не хватает такой фичи
Я бы посоветовал посмотреть на BenQ EW3280U 32"
Почти во всех мониторах LG либо засветы по углам либо неравномерный цвет. Стоит почитать отзывы…

У EW3280U мыла нет на PS4 Pro и под машиной на линуксе.
Для действительно «безмыльного/retina» восприятия текста, подобного тому что сейчас на телефонах, 4k разрешение должно быть на диагональ <= 24", 5k = 27", а тут 4k на целых 32". И вот Apple все правильно сделали, а остальные производители погнались не пойми за чем.

В LG Ultrafine 5k и 4k вроде сейчас нормально с подсветкой, 500нит. Но очень уж они дорогие.

Мне наверное стоит посмотреть как другие операционки ренедерят шрифты, но я говорю именно о «ретиновости» восприятия, когда никаких пикселей совсем не видно. На макоси точно при 4k на 32" будет видно что буквы состоят из пикселей, видно даже на 27" 4k мониторах.

Кам бы не был убогим рендеринг, на таком DPI все нормально даже без сглаживания.

Пользователь нового (3 месяца назад купил) Ultrafine 4K вошёл в чат.
Засветы на месте (в левом нижнем углу довольно заметный). Для монитора за почти 1000 баксов это какой-то стыд.


Покупал в РФ, а там найти в наличии его тяжело :(
С другой стороны, круто, что он умеет по одному кабелю получать картинку и звук и отдавать зарядку + быстрый хаб обратно, плюс шикарный звук у встроенных динамиков, плюс регулировка яркости с мака (но встроенный в монитор сенсор довольно косячный).


Ну и хороших глянцевых мониторов за относительно адекватные деньги днём с огнём не сыщешь, а на матовые я уже не вернусь, слишком уж глянец нравится.

Вот не знаю, для чего может понадобиться 23,5" 4к монитор в стационарном компьютере. Особенно за такую цену.
Уже несколько лет использую монитор 4К 24 дюйма. Качество отображения текста и изображений куда выше, чем на FullHD, глаза устают намного меньше
Ну то, что можно использовать — это я не сомневаюсь. Но выставлять маленький размер как преимущество, достойное немаленькой переплаты? Ну такое, как нынче говорят.
Дело не в размере, а в плотности пикселей. Лично я мечтаю о 8к на 32 дюймах, будет идеально. Сейчас сижу на тех же дюймах с 4к, пиксели вполне себе видно, хотя итоговое изображение уже лучше стандартных 1080 на 24 дюймах.
Маленький размер чего? Размеры текста, иконок и прочих элементов UI совпадают с размерами, которые были бы на 24 дюймовом FullHD мониторе

Про размер UI уже ответили, он обычный, возможно, вы имели в виду размер самого монитора — отвечаю на этот вариант.
Я пробовал 27" (у жены 4к 27"), преимуществ для себя не нашёл, но диагональ уже "ещё чуть-чуть и будет лишко". Ещё больше уже точно будет неудобно лично мне. Так что для меня 24" 4К прям в самый раз. Но при этом нужен второй монитор (для муз. плеера или фильмов, если рутинные задачи), раньше вторым монитором был 24" фуллхд, сейчас — 13" макбук на подставке.

Более-менее сносные начинаются от 30, а с глянцевым покрытием вообще хрен найдёшь.

Глянцевое покрытие — да, беда, но увы, за это голосуют потребители рублем. Глянцевые мониторы почти не покупают.
Сам много лет не меняю монитор из-за этого)

Что, кстати, странно — слева от меня здоровенное мансардное окно, и запаса яркости LG Ultrafine с лихвой хватает, чтобы не было ни намёка на блики. Видимо, народ просто запуган говномониторами, которые по яркости не вытягивают :)

Ага. У моего уже подсветка давно села, постоянно выкручена на максимум, но все равно ок.
Просто людям при 27" хватает иногда и 1080р и даже 2,5 они считают лишними.
Вон в этой теме отметились те, кто не понимает, зачем на 24" 4к.
Поэтому мыла от антибликового покрытия они не видят.

А где мак явно позиционируется как «рабочая машина»? В роликах показаны довольно простые задачки, браузер, редактирование фото, конференции, офис

Ну с 8 гб они, конечно, загнули, но 16 вполне достаточно. Мой сценарий с Macbook Pro 13 M1 за 160к:


  1. Два окна хрома по ~30 вкладок
  2. IDEA с 1-2 проектами разных размеров — от "обычного", до целого Android (в смысле, дерева исходников самого андроида)
  3. Почта (раньше Spark, не дождался билда под ARM, перелез обратно на Apple Mail)
  4. Два телеграма — один нативный, второй «Light», который дико текущая обёртка хрома, жрёт в среднем около гига
  5. Slack
  6. Apple Music
  7. VLC с видео в FullHD/4K

Ну и мелочи всякие — календарь, заметки, эпизодически фигма, докер и т.д.


Ни намёка на лаги, в среднем занято процентов 70 памяти. Понятное дело, что это достигается за счёт агрессивного сжатия и свапа, но для юзера прозрачно. Жду моделей с 32 гигами, до этого сидел на 32 гб и при том же сценарии было занято около 28 в среднем.


Вполне норм цена для профессионального инструмента, аналоги и на x86-то стоили не дешевле, а частенько и дороже, а на арме вообще аналогов не видать пока.

У хромбуков все получилось. А с учетом того что хромбук, который сносно может в ютуб, можно купить долларов за 150-200, а макбуки на М1 таки стартуют от тысячи, у хромбуков «ПК для потребления контента» пока как минимум сильно доступнее получается.
Некий ПК для потребления контента,
«ПК для потребления контента» — это то же самое что «интернет для госуслуг и стрима первого канала».
> интернет для госуслуг и стрима первого канала
Так-то валидный юзкейс (как в у нас в русских деревнях говорят).
Жаль, что не анонсировали новый проц.
Количество пикселей по сравнению с макбуком выросло в 2.75 раза (4480×2520 = 11289600 против 2560х1600 = 4096000).
Опять на аймаке про игрухи можно забыть.
Ну анонсируют летом или осенью. Очевидно самые интересные новости еще впереди. Там и большой аймак и мощные прошки подвезут
Разрешение выставить в 2 раза ниже и спокойно играть. А то для 4К никакой видяхи в этом формфакторе не хватит.
Это если оно умеет в целочисленное масштабирование.
> Опять на аймаке про игрухи можно забыть.
Смотря какие. MacBook Pro M1 спокойно тянет доту 2 в 4K на стабильных 60 FPS в режиме эмуляции x86, например. Другие игры не тестил.

Очень странный компьютер, как мне кажется.
Подставка не регулируется по высоте, огромная нижняя рамка, но они при этом выделяют тонкий и лёгкий корпус, что редко учитывается при выборе моноблока.

Ничего, в следующем году выпустят новый, с революционной технологией регулирования монитора по высоте.
Подставка не регулируется по высоте,

На это плевать если есть VESA. Там же есть VESA, да?
Там лучше! Там рисунок яблочка! Не удержался, да

Только в момент покупки:
https://www.apple.com/shop/buy-mac/imac-vesa/silver-24-inch-apple-m1-chip-with-8-core-cpu-and-8-core-gpu-256gb


Но либо ножка, либо vesa. Съёмнач ножка была только на imac pro, либо на imac до 2009 года, емнип.

Но либо ножка, либо vesa.

Ну это ещё нормально. Я вот не знаю, куда девать куриную ногу от нового монитора.

Имхо намного хуже, когда делаешь перестановку/переезжаешь, на новом месте кронштейн не успел повесить (или вообще нельзя, на съёмной квартире например), куриной ноги нет, а работать уже надо.
У меня в старом проф монике было сделано круто — нога вешалась на тот же разъём, что и VESA. Теперь у меня есть хороший запасной вариант вместо кронштейна.
А отдельно такие ноги случайно не продаются? Надо глянуть на алике на всякий случай
Если не читать предыдущие сообщения, то в отрыве от контекста эта фраза выглядит просто великолепно!
Этa нога — у того, у кого надо нога )
Обычные веса подставки на 1 комп с установкой на стол или с прикручиванием к столу не подойдут? Могут быть даже с лифтом. Просто ж их надо под примерный вес брать.
А так вот у одного моника была такая, но там не совсем веса на подставке — 2 дырки снизу, а сверху выступы в ненужных местах. Моник то всё, а подставку чет никак не выброшу) От другого моника — подставка как буква z, хотя и веса, но по мне не самый лучший вариант.
Так что проще сразу посмотреть сразу в обычные подставки, чем искать от моников старые)
Порылся в алике — есть и просто ноги, и прикручивающиеся к столу, ну там как обычно — у китайцев можно найти всё
Да их и тут найти можно спокойно, мы в крупных сетях закупали разные. Лучшая это с полкой для клавы ещё и на лифтах, нам для работы с прибором требовалась)
или вообще нельзя, на съёмной квартире например

Для таких случаев есть ноги с креплением к столу.

Огромная борода в 2021 смотрится странно, да и рамки тоже. Ну да ладно, зато сбоку красиво смотрится.

Где-то сам комп должен стоять. Либо в бороде, либо более толстый корпус.

Ethernet же они спрятали во внешнем блоке питания, так что и здесь могли попробовать как-нибудь выкрутиться.

Это называется мак мини

Можно перенести наверх и повернуть на 90 градусов — полочка будет :)

Для полочки раньше служил CD-ROM.
Что мешало сделать вот так, например? Очевидно, дизайнерские понты. Хотя, есть предположение, что тут еще угол зрения могли учитывать — более высокий монитор пришлось бы выше поднять, чтобы соблюсти правильную осанку и работу глаз пользователя.

image
Мне лично этот вариант не нравится. В этом случае ничего не решает и только идёт возврат к старому варианту.

В Microsoft surface studio в подставку спрятали и ничего.

у яблок тоже такой iMac был — «лампа Джобса»
В этом и дело, что где-то он должен быть.
В светло-серой сноске в спецификации указано, что на самом деле экран 23.5" и видимо 60гц, раз нигде не указано. Рамки как обычно безобразно огромные и традиционная нерегулируемая высота подставки. SSD 256 и 512гб (170к!) продаются с разницей 20 тысяч рублей. Размер оперативки 8гб вообще неприлично произносить для такого ценника.
Это просто мусор какой-то.

8 гб за столько...


image

Apple ещё не запретили в РФ за пропаганду радуги?

Подставка у этого чуда, кстати, — позорище полное. Был у меня dell 2209wa, вот там была подставка, всем подставкам подставка. Литое основание, стальной профиль, шариковые направляющие, пружины для разгрузки. Четыре степени свободы. Всё очень плавно и мягко каталось. Брал свой локально в DNS, где-то в 09-10 году, за 11 (одиннадцать!) тысяч рублей. А тут за 130 такое мммнээээээ…
Впрочем, типично для огрызка — гламур и минимум «лишней» функциональнсти…

Если раньше Эппл доказывала, что процессов iPad настолько мощный, что способен заменить десктоп, то теперь и доказывать ничего не нужно — везде один и тот же M1.
Ну а вообще, процессор с одинаковой архитектурой на всей линейке — это круто. И если не получилось засунуть x86 в телефон, то получилось засунуть ARM в десктоп. И вместо "горячих" телефонов мы получили "холодные" десктопы.

Только он нафиг никому не упал. Что на айпаде можно делать? Дали бы возможность запускать макось (хотя история с тачскирном тут не понятна будет), это бы меняло многое… там FaceID, которого мне не хватает в макбуке, и apple pencil, и клавиатура как подставка, а не часть устройства. А теперь еще и проц как в макбуке. Дайте на нем докер запустить, да Idea с Java и я побежал бы покупать за любые деньги.
Кстати на reddit только об этом и пишут, то есть в принципе не я один так считаю. Айпад то вроде как и может заменить комп, но из-за системы, очень мало кому это подходит.
Хотя если честно, не представляю как можно совместить макось и тачскрин. Возможно разве что каким-то скейлом (как это в принципе уже сделано в настройках), чтобы при отключении от клавиатуры, разрешение уменьшалось, тем самым увеличивая размер кнопок, делаю их удобными для тачскрина.
Дайте на нем докер запустить, да Idea с Java и я побежал бы покупать за любые деньги.

Обязательно нужно гвозди микроскопом забивать?
На айпаде удобно рисовать, работать с фото, снимать видео и прямо там обрабатывать, в т.ч. реалтайм превиз или даже финальный рендер.
Понятно ваше желание иметь 2:1, но Apple пока не чувствует необходимость в таких девайсах. Да и продать два устройства выгоднее, чем одно =)
Я лично вообще не приемлю 2:1 как класс, но это моё личное мнение и я его никому не навязываю. Но вот превращать iPadOS в macOS не нужно. Айпады используют люди, которые ненавидят macOS.
Прошку выпустили в пику мсовским сюрфесам, которые как раз таки люди вполне себе использовали для замены ПК.
С учетом, что мне из моего деллла чтоб получить комп — ткуть его в докстанцию на зарядку и вот уже мышка с клавой и внешний видик, то вообще не понимаю в чем проблема? Я б и с телефона был бы доволен решать часть задач удалённо, жаль только на винфонах 10-ка мертвой родилась и смысла уже не было брать новые девайсы с доками…
Что то говорили о подключении кабеля эзернет в выносной блок питания, кто нибудь может пояснить за эту фичу? Правда или вымысел?)

Было в презентации: https://techcrunch.com/2021/04/20/the-m1-imacs-power-supply-sports-magnetic-connector-ethernet-port/
Очень странное решение, как по мне, особенно магнитный разъём для настольного компьютера.

Я в чем странность? мне вот наоборот, такое решение нравится. Причём вроде у каких-то ноутов такое уже было. Зачем куча проводов тащить к моноблоку, если можно кабель сетевой в блок-питания воткнуть?

Случайно отсоединившийся кабель у ноутбука — пустяк, у десктопа — в лучшем случае потеря недописанного комментария.

Во-первых внешний блок питания сам по себе — все предыдущие и iMac и Mac Mini были со встроенным (лично меня невероятно бесят внешние бруски у многих мониторов).
Во-вторых Ethernet — это всего один разъём, остальное так и идёт в моноблок. Подвешенный дисплей и подставка со всеми разъёмами (и блоком питания) смотрелось бы лучше.
В-третьих, как отметили ниже, кабель питания на магнитике ДЛЯ ДЕСКТОПА?!

Да, без аккума решение спорное с магнитиком.

А какие другие провода в большей части реальных девайсов? Мышки с клавой беспроводные поставил, сам комп внутри монитора, что остаётся из внешних кабелей до компьютера? Даже не представляю. Только девайсы к компу на столе (жесткий внешний, сканер или принтер проводной, если кому нужен). И то, принтер по сети или вайфаю, а вместо сканеров вообще мфушки так же сетевые или вайфайные есть.
Вот только беспроводных жестких дисков мало пока. Но это временное подключение.
Подвешенный дисплей и подставка со всеми разъёмами (и блоком питания) смотрелось бы лучше.
Под стол сеточную полку поставили и туда кинули БП, например. Очень удобный вариант, мы на работе под стол бп-ники нюков и моников крепим. Так что я был бы рад, чтоб ещё и сеть при этом не нужно было тащить. А если б там ещё юсб были прокинуты — так вообще счастлив был бы)))

Я никогда не держал в руках эппловские изделия с магнитными разъемами. Есть недоверие к надежности устройства без аккумулятора с питанием на магнитике. Да, это все опасения. Но в истории автомобилей есть случаи аварий вызванных закатыванием бутылки под педаль тормоза. Если натянуть провод питания (или подсунуть под него что-то на захламленном столе, а потом пошевелить монитор (регулировка наклона, пододвинуть к себе, повернуть соседу), потеряем питание?

Я умудрялся отключать питание даже в случае старого разъема, когда столом прижимал кабель и пытался наклонить монитор "от себя". Думаю здесь это тоже сработает.

потеряем питание?

Магнитный разьем не для этого. А для того когда вы или кто-то другой случайно дернет провод, то ваш ноут не улетит на пол. И меня эта функция на старых Apple ноутах несколько раз спасала.
Только это не ноут. А чтобы не летал, можно прикрутить на VESA к стене.

Для ноутбука справедливо.
В данной конструкции провод питания проходит через подставку. От падения магнитный разъем спасет только при перпендикулярном направлении выдергивания. И то в случае постепенного утолщения оболочки кабеля от толщины шнура до толщины разъема. В данном же варианте выскочивший кабель сразу зацепится за край отверстия подставки. Единственный выигрыш — при наличии внутри HDD он успеет запарковаться и упадет на пол без повреждения блинов.


Я своему телефону поставил магнитный разъем на питание. Вот там он действительно нужен, оправдан. И дома удобно и в автомобиле. Ценовой сегмент моих телефонов не захватывает ни сразу модели с магнитами ни с беспроводной зарядкой, ибо данные устройства в категории расходников.

Я своему телефону поставил магнитный разъем на питание.
шёл 2021 год, я до сих пор не понимаю, почему все свернули не туда и беспроводная зарядка, которую активно пихала нокиа в любой около топ свой на винфонах еще в начале десятых, так и осталась уделом отдельных моделей. При том, что беспроводная зарядка от нокии заряжала быстрее, чем юсб от компа или простенький зарядник.
Казалось бы, наконец-то и айфоны внедрили, но… Но нет, на всем рынке кроме них ещё пару калек за кучу бабла можно просто взять и положить рядом на рабочий стол, не дергая каждый раз телефон, когда тебе надо отойти…
PS. кстати друг для айофна в итоге купил бушную QI зарядку от нокии в своё время...
Зашибись… У Apple кончились здравые аргументы, теперь в ходу «цветная революция»… Стив Джобс наверняка крутится в гробу как белка в колесе…
Да, в его-то времена ничего подобного не было! Скоро, скоро сдохнет проклятущий Эппл!
image
image
Купил себе минимак 16gb/1Tb, подключил к 49 дюймовому монитору, пока полет нормальный, но большинство адаптированных приложений в бета-версии, да и сама макось только в бетке работает относительно годно. Видео монтировать норм, кодить вполне тоже в vscode через ssh. Фильмы в 4к переваривает на ура, браузер файрфокс летает, вентилятор можно сказать не включается никогда, комп всегда ледяной, больше ничего не нужно.

Но вот аймак такой брать как минимум экрана маловато, да и смысл, жду когда сделают какой-нибудь еще более быстрый проц.
Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.