Как стать автором
Обновить

Комментарии 172

НЛО прилетело и опубликовало эту надпись здесь

Поэтому, на страничке https://www.apple.com/ru/imac-24/ сначала фото (все цвета)


Потом про толщину (вдруг у Вас мало места на столе)
Потом про вес (я сдержался)
Потом про thunderbolt
Кабель питания на магните и окрашен в тон
Описание качества дисплея
Камеры
Микрофонов
Динамиков
Реклама чипа м1

Удивительно, ничего про ssd

Ну это же не Sony, а Apple

Интересно, 16Гб — это аппаратный предел?

да
в m1 память встроена в процессор и из того, что я видел, похоже что все упирается в возможности имеющегося у Apple производственных возможностей на момент релиза первых m1. Думаю к осени уже переоснастят и будут выпускать более продвинутые модели с большим количеством памяти.

The memory limit for the ARM Macs probably comes from the maximum size of the memory die that they can place in the MCM, which contains the CPU. The MCM (Multi-Chip Module) is several dies (separate silicon chips), all placed in one package. MCMs allow a much faster connection between the separate chips and make manufacturing easier as there is one package to solder rather than 3.

I don’t see there being any difference between the Intel and ARM Mac mini, for instance, in terms of memory usage. They both use integrated graphics, meaning they have GPU cores which share RAM with the CPU. They will both use about the same amount of memory.

I think the limit on RAM on the ARM Macs is therefore due to what Apple could design and manufacture in the schedule they gave themselves rather than due to a difference in the architecture of the M1. They probably think, correctly, that 95% of users need 16 GB or less of RAM.
«Я не вижу разницы между Intel и ARM Mac mini, например, с точки зрения использования памяти. Они оба используют встроенную графику, то есть у них есть ядра графического процессора, которые совместно используют оперативную память с процессором. Оба они будут использовать примерно одинаковый объем памяти.»
Разница хотя бы в расстоянии между gpu и кристаллами памяти — при использовании DIMM оно заметно больше, а для встроенного видео это существенно.
Разница хотя бы в расстоянии между gpu и кристаллами памяти — при использовании DIMM оно заметно больше, а для встроенного видео это существенно.

Во-первых, латентность DIMM (DDR4) заметно ниже встроенной LPDDR4.
DDR4 60-80ns (intel-amd)
LPDDR4 96ns (M1, 98ns — Tiger Lake)
Установка LPDDR поверх упаковки — вопрос в первую очередь компактности и цены, а не производительности.
Тут правда есть нюансы, а именно отличия в работе 2*64-бит против 8*16-бит.

Во-вторых, GPU спроектированы так, чтобы компенсировать высокую латентность.
Никогда не интересовались, сколько занимает доступ к L1 кэшу на GPU?
twitter.com/Locuza_/status/1032691135582560256
В AMD GCN так:
L1 кэш-попадание 114 тактов
L2 кэш-попадание 350 тактов
На частоте 1ГГц имеем L1 кэш хит за время полного обращения к памяти на CPU.

К чему вообще акцентировать внимание на «встроенности»? Дискретный чип ничем не отличается от встроенного в этом плане.
То есть можно набрать 16 ГБ видеопамяти из рассыпухи, разместить в соседней тумбочке, закинув шлейф подлиннее, и производительность не ухудшится? А с рассинхронизацией широкой параллельной длинной шины как быть? И не она ли одна из причин высокой латентности?

У дискретного чипа своя шина, своя память. Интегрированное видео конкурирует с процессором за контроллер памяти, шину и саму память. eDram/HBM помогают этого избежать.
То есть можно набрать 16 ГБ видеопамяти из рассыпухи, разместить в соседней тумбочке

Из какой рассыпухи? Посмотрите на размер модуля DIMM и расстояние, которое проходит сигнал от каждого чипа через плату до процессора. Это расстояние довольно большое, тем не менее латентность меньше чем у LPDDR чипа, распаянного прямо на упаковке.
Не понимаю зачем вы спорите — я вам дал конкретные цифры.

Пока задержка на передачу составляет незначительную часть латентности модуля, можно хоть в тумбочке держать.

А с рассинхронизацией широкой параллельной длинной шины как быть?

Посмотрите на материнскую плату, особенно серверную. 8 каналов по 64 бита.
Проблема с «рассинхронизацией широкой параллельной длинной шины» решена.

И не она ли одна из причин высокой латентности?

Нет. Причина высокой латентности это физический принцип работы DRAM.

Интегрированное видео конкурирует с процессором за контроллер памяти, шину и саму память.

Фигня. Современный GPU компенсирует тысячи тактов латентности без проблем.
А вот ПСП процессор может у GPU отжирать заметно.

eDram/HBM помогают этого избежать.

Латентность у HBM, насколько я знаю, ещё хуже чем у LPDDR4 и тем более у DDR4 :)
НЛО прилетело и опубликовало эту надпись здесь
«А разве на видиках GDDR не так расположена, в отличие от распайки с чипом у Эпл?»
«У дискретного чипа своя шина, своя память. Интегрированное видео конкурирует с процессором за контроллер памяти, шину и саму память.»
Ну и сниженное потребление в LPDDR это больше про напряжение питания ради снижения нагрева и продления работы от аккумуляторов в мобильных устройствах, а уже как следствие некоторое терпимое снижение производительности. Ну и организация памяти имеет значение.
НЛО прилетело и опубликовало эту надпись здесь
Пишут, что «у Xbox Series X имеется 16 ГБ ОЗУ, распределённой на два кластера (10 ГБ и 6 ГБ)». Вероятно ОЗУ и видеопамять. Консоли оптимизируют по соотношению игровой производительности к цене, PS5 теперь исполнена на SoC. Проработка технологичности и экономия в конструкции прототипа делает разработку сложнее, зато производство партии заметно дешевле.
Встроенное в процессор видео всё же сравнивать с оптимизированной архитектурой кмк не стоит.
НЛО прилетело и опубликовало эту надпись здесь
У минимального встроенного видео и видео, встроенного в игровую консоль разные задачи.
НЛО прилетело и опубликовало эту надпись здесь
А можно ссылку, оч любопытно.
MacBook на M1 у жены сильно радует, но себе брать с 16 гб не хочу.
Читаю по ссылке раз:
Chinese maintenance engineers can already expand the capacity of the Apple M1. The 8GB memory has been expanded to 16GB, and the 256GB hard drive has been expanded to 1TB.

Читаю по ссылке обсуждение:
twitter.com/caribbeanxblue/status/1378731240782757889

Вывод: 32 Гб поставить невозможно сейчас.
Да, я ошибся. В двух чипах можно только теоретически по цене золота. Практически ставили 16 ГБ.

Где паяли 32 Гб? Я пока видел только перепайку модели 8 Гб на 16 Гб.

16 ГБ — виновен. А больше чипов нельзя поставить, так как там тайминги на минималках за счёт близкого расположения чипов и небольшого их количества и производительность заметно просядет.

Перестаньте распространять вот это про "тайминги на минималках".
Там обычная память LPDDR4x, тайминги которой идентичны мобильным платформам на Intel/AMD. Расположение чипов памяти рядом с CPU нужно исключительно для уменьшения энергопотребления.


А ограничение объёма там в контроллере памяти. Его таким спроектировали ровно под требования конечных устройств.

Тайминги зависят и от чипов и от длинны проводников и количества точек подключения. Например, при четырёх слотах памяти нельзя достичь тех же таймингов, что и при двух, даже если ставить одни и те же чипы.
Тайминги зависят и от чипов

В современных ноутбуках практически одни и те же чипы LPDDR4X стоят.


и от длинны проводников

Можете прикинуть, какой величины разница получается между 5 мм (грубая оценка для M1) и 5 см (типичный ультрабук), например? Подсказка: на фоне задержки DRAM её не видно.


и количества точек подключения

Зависимость latency от количества подключенных чипов — это внутренние ограничения конкретных контроллеров памяти в процессорах, никаких физических причин для этого нет.


На всякий случай, приведу реальные измерения задержек памяти мобильного AMD Zen 2 (отсюда) и Apple M1 (отсюда) — смотреть на жирную оранжевую линию ближе к правому краю.

Ёмокстb цепей 5мм и 50мм отличаются в 10 раз и более. А на 5 см уже нужно учитывать эффекты распространения волны.

Ну так учтите. Сколько выходит?
И потом объясните, как M1 с "таймингами на минималках" и близкими чипами имеет ровно ту же задержку доступа, что и обычный AMD Renoir (и Intel Tiger Lake)?

НЛО прилетело и опубликовало эту надпись здесь
Тайминги завият от чипа и разводки. Минимальные достижимые тайминги будут заметно ниже на распаянной памяти.
Напряжение ни при чём в данном случае.
НЛО прилетело и опубликовало эту надпись здесь
При прочих равных тайминги ниже будут там, где ёмкость ниже. А ёмкость ниже там, где дорожки короче и меньше точек подключения.

Прекратите пороть чушь, ей больно.


Ëмкость проводников может влиять только на длительность переходного процесса (полутакта), и эта длительность видна прям из основного параметра памяти — частоты шины.


Тайминги — это количество тактов, за которые память готова ответить на запрос. У энергоэффективной LPDDR4X тайминги намного выше, чем у обычной DDR4, что объясняется другой внутренней архитектурой чипов.


Общая же задержка складывается из архитектуры кэшей и частоты и таймингов памяти. Для разных процессоров даже с идентичными характеристиками памяти она может быть разной.


Для сравнения с приведёнными выше значениями для мобильных платформ (LPDDR4X-4266) — десктопные Intel Core i7-11700K и AMD 5950X — на одной и той же DDR4-3200.

Ну, блин, тогда запустите четыре планки DDR4 на 1600 МГц (3200 МТ) на минимальных таймингах. Не взлетит. Две будут отлично работать, а четыре — нет. Или частоту понижать или буферизированную память ставить и тайминги упадут.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Вы одинаковые чипы распаяли? Количество чипов на линии одинаковое? Тогда тайминги будут одинаковые. Но на самом деле нет — т.к. у вас на «внешнем DDR4» банально разъём присутствует и даже если достичь одинакового качества топологии, то достижимая нагрузочная способность на линию и частоты всё равно будет ниже.
На распаяной памяти вы можете получить четыре банка на минимальный таймингах и максимальной частоте, а на внешней — нет. На внешней памяти у вас максимальная частота сразу на 20% упадёт. Вы, конечно можете на внешней играться с напряжениями и таймингами и оно даже может на некотором сочетании планок и настроек заработать, но это будет уже области гадания и везения.
НЛО прилетело и опубликовало эту надпись здесь
Вы о чём спорите я даже не пойму? Вы утверждаете, что длина проводников, количество разъёмов и количество подключений не влияет на достижимую скорость работы памяти?
Я очень хотел бы посмотреть, как вы стабильно заведёте 4 планки LPDDR4 (не говоря о 4x) на максимальной штатной частоте (1600 МГц).
И да, ниже стабильно-достижимые тайминги будут на распаянной памяти. Естественно, что тайминги мы измеряем в нС, а не в тактах, так вы просто частоты равные даже не получите на хороших чипах.
НЛО прилетело и опубликовало эту надпись здесь
Ну вообще-то там только с одной стороны два чипа памяти, никто не мешает поставить ещё шесть с оставшихся сторон. Хотя так, конечно, корпус вырастет и ног станет больше, но расстояние до памяти ненамного увеличится.
Согласование такой лини будет сложнее.
Какая-то хлипкая конструкция и очень сомнительная цветовая палитра, на это же постоянно смотреть придётся, а оно вырвиглазное.
Всё вполне в духе традиций.
Заказывайте серый — он всегда в моде.

iMac M1
iMac G3
НЛО прилетело и опубликовало эту надпись здесь
Не тот случай. Авто в стоковой комплектации может потянуть ещё на половину стоимости при дооснащении опциями, тут же доукомплектация памятью невозможна.
Скорее всего позже появятся модели с большим объёмом ОЗУ.
На MacOS с 8 ГБ вполне комфортно можно заниматься многими делами. Интереса ради посмотрел сколько памяти программ сейчас загружено — 1.3 Гб, это Safari с несколькими вкладками и проигрывающимся видео на YouTube, мессенджер, почта, Numbers, Pages.
Для таких задач не нужен компьютер за такой ценник.
Смотрю на свой комп, тянущий миллионы полигонов в Zbrush и 4-8к текстурирование в Substance, который обошёлся мне процентов на 30 меньше минимальной комплектации этого чуда, и понимаю, что что-то тут не так.

Mac выбирают не за то, что он на 30% дороже или быстрее, его выбирают за комфорт при использовании.


Хотя, справедливости ради, надо отметить, что ужасный touchbar вверху — худшее, что в него встроили. Этот реально замедляет работу на нем прямо реально.

А монитор с HiDPI если плюсануть? И периферию?

HiDPI мониторы давно стоят копейки.
60 Гц — прошлый век.

Прям копейки? Ну-ка ну-ка? Не забудь IPS, широкий цветовой охват и яркость 600нит. Ссылочку пожалуйста сразу. А если там будет больше 60фпс — совсем красота, заберу сразу
НЛО прилетело и опубликовало эту надпись здесь
Не так тут то, что мак это не только железо, но и куча нормально написанного и удобного родного софта в комплекте, который будет обновляться пока система сможет его тянуть, то есть более пяти лет. Обычному пользователю мак удобен «из коробки», он добротно сделан. Можно ли купить дешевле и настроить другую систему для своих задач, чтобы она работала лучше чем мак? Однозначно да, но есть много людей, которые не хотят играть в эту лотерею — вот для них он и продается.
Так и этот аймак спокойно потянет «миллионы полигонов в Zbrush и 4-8к текстурирование в Substance»
Кому-то хочется красивый и компактный моноблок для таких задач, и они его вполне себе купят
не подскажете какой компьютер?
В чем вообще смысл существования данной модели?

В связи с пандемией резко вырос спрос на устройства для учёбы/работы из дому для непрограммистов. Я бы, например, взял такой для дочки чтоб в школу «ходила». Для Teams, Office и Сафари 8 Гб хватит, компьютер красивый, сочные цвета на ярком в 500 nits мониторе, быстрый процессор, обещают три микрофона студийного качества и улучшенную камеру.

PS: понятно, что для такого софта можно найти/собрать компьютер и за треть ценника Apple, но мне нравится macOS, да и симпатичный он. Для некоторых людей в некоторых ситуациях цена не главный критерий, тихий изящный Mac c хорошим монитором может найти покупателей.

PPS: говорю «взял бы» потому как сейчас у неё MacBook Air M1, но если бы покупал сейчас, то выбрал бы десктоп из-за большего монитора, лучшей камеры и микрофонов.
Ну я как-то на ноуте, которому уже десяток стукнул живу, причём даже под gentoo.

На маке с M1 правда какая-то магия с оперативкой работает. Я лично сейчас с него печатаю (с восьмигигового), в браузере у меня зачем-то 300 вкладок, и за другими открытыми приложениями можно не следить вообще. В том числе видео монтировал, ничего не закрывая.
Программировать на нём не пробовал, к сожалению, про этот опыт рассказать не могу.


Но изучите обзоры/сравнения, 8 гигов там очень хорошо работают по многозадачности, на удивление. При том, что на windows-десктопах мне 16 гигов некомфортно, у меня на обоих по 32.

На маке с M1 правда какая-то магия с оперативкой работает.

Она и не только на M1 такая. Вроде они называли её трехсегментной:
1. основная оперативная память
2. активные кэши (включая агрессивный кэш над файловой системой)
3. зипованный своп в памяти
4. своп на диске

Когда в (1) память подходит к границе, то из (2) часть удаляется, часть зипуется и переносится в (3).
Если (3) достигает определенных лимитов, то он сбрасывается в (4) выделяя память для (1).

Где-то унутри документации разработчиков ядерных у них читал про это. Сейчас не смог быстро найти ссылку.

Были слухи про повышенную утилизацию SSD. Возможно с этим связанно.

OSX довольно агрессивно сжимает память. Когда Макбук орёт как аэроплан, это не всегда интенсивные расчёты. Зачастую это приложение с утечками памяти (Firefox), вынуждающее ядро активно сжимать странички. Впрочем, при всём этом вое система остаётся отзывчивой.
НЛО прилетело и опубликовало эту надпись здесь
Открытия нет. Но, насколько я помню, такой подход первыми сделали в Mac OS, потом подтянулись Linux и только потом Windows. Но могу ошибаться. Давно уже читал про это.
НЛО прилетело и опубликовало эту надпись здесь

Мы все-таки на техническом ресурсе, давайте оставим "магию Apple" для сайта woman.ru.


в браузере у меня зачем-то 300 вкладок, и за другими открытыми приложениями можно не следить вообще.

Круто что в макоси смогли сделать работающую подкачку.

НЛО прилетело и опубликовало эту надпись здесь

Сколько память не сжимай и не свапай, больше ее не станет.
Напоминает недавние статьи о свапе в linux.

НЛО прилетело и опубликовало эту надпись здесь

Вы забыли поставить галочку "Магия Apple"

Пробовал на 8Г vmware + idea — все норм. Немного фризится при переключении окон, но работает.
Мне кажется, в вашем случае проблема в докере, он зело глюкав под макосью.

Сейчас будет небольшой удар реальностью, заранее прошу прощения за нанесенные увечия.

Вот Вам простой наблюдаемый факт: мой 5 летний проект в Premiere Pro содержит более 3.5 тысяч файлов, при попытке первого открытия (с кэшированием) на компуктере под управлением Windows, даже с 32 GB RAM, у этого чуда инженерной мысли нет абсолютно никаких шансов не крашонуться. Но стоит мне открыть тот же проект на своем Macbook c 8GB RAM, так сразу же все прогружается и кешируется, и что удивительно без единого краша. На Mac OS Premiere Pro просто работает и не плачет по поводу недостатка оперативки.

Никогда не забуду как купил первый iPad в 2010 году и закинул на него Quake 3 Arena. Летала она в 50 кадров, при процессоре в 1 ГГц/1 ядро и оперативе 256 МБ. Спустя год-два вышел планшет Samsung 2ГГц/2 ядра/2ГБ RAM, вот думал оторвусь в той же Quake! Ага… 17 кадров еле выдавал…

Из этого можно сделать однозначны вывод, главное не цифры, а оптимизация, ведь когда ее нет, даже 32GB оперативки или супер процессор не спасет.

У меня все =)
В поиске рецепта лечения Illistrator'а, перестающего нормально открывать свои файлы после определённого порога сложности набрёл на форум, где обсуждался данный вопрос. Один из пользователей написал, что вынужден использовать старенький Macbook, т.к. только на нём взлетает определённый шаблон. Шаблоном оказались подготовленные к печати доллары.
Самый действенный из найдённых рецепт для Windows — почаще сохранять промежуточные копии.

Я дико извиняюсь, но Q3 у меня работал на Celeron 500, 128 оперативки, GeForce 2 MX 400.
60+ fps.
Что за магическая оптимизация была там?

В каком разрешении, 800х600?
У iPad разрешение экрана 2048x1536, а GPU в Apple A4 работает на тех же 200МГц что и ваш GF2MX400, ПСП примерно такая же (3,2ГБ/c на всё).

1024 х 768


на тех же 200МГц

Сейчас бы мегагерцы видеокарт сравнивать....


Из этого можно сделать вывод, что Кармак в девяностых оптимизировал Q3 для айпэда, который вышел в 2010?

1024 х 768

Т.е. фреймбуффер в четыре раза меньше.

Сейчас бы мегагерцы видеокарт сравнивать....

А почему бы не сравнить? Не для того ли вы написали спеки вашего компа?
Я просто говорю о том, что эти GPU примерно одного уровня, вплоть до идентичных показателей ПСП, филлрейта и т.п.

hw-museum.cz/vga/170/asus-geforce2-mx400-64-mb

ROP 2
TMU 4
Clock 200 MHz
Pixel fillrate 400 MP/s
Bandwidth 3200 MB/s

gadgetversus.com/graphics-card/imagination-powervr-sgx535-specs
Apple A4 GPU (PowerVR SGX535)
Execution units 2
Pixel fillrate 0.4 GPixel/s
Bandwidth 3200 MB/s

Из этого можно сделать вывод, что Кармак в девяностых оптимизировал Q3 для айпэда

Это исключительно ваши фантазии. Ни про Кармака, ни про оптимизации я ни слова ни сказал.

Вы бросаетесь спеками, которые по-сути аналогичны озвученному айпаду, и удивляетесь что он работает так же или даже лучше.

gamekeeper
21.04.2021 в 12:15
<некоторый контент пропущен>
Из этого можно сделать однозначны вывод, главное не цифры, а оптимизация, ведь когда ее нет, даже 32GB оперативки или супер процессор не спасет.


У меня все =)

>> У меня все =)
Вы в двух соснахниках заблудились? У нас даже разное количество букв.

Ещё раз — про оптимизацию я ничего не говорил. Я лишь отметил, что устаревшее железо, которым вы бряцали, примерно аналогично установленному в iPad 2010г.

Что до вами отквоченного вывода, то он банален по своей сути как «вода-мокрая» и «солнце-яркое» и с ним сложно не согласиться.
НЛО прилетело и опубликовало эту надпись здесь
Меня недавно мой старый 13 pro 2014 года с 8 гигами оперативной памяти сильно удивил.
Оказывается что FinalCut на нем совершенно спокойно можно обрабатывать 4k с навигацией в реальном времени (рендер будет долгим, но вменяемым). Premier Pro, правда, не тянет. Я не знаю что они там оптимизировали, но довольно мощный десктоп с виндой и premier pro такого близко не может. Приходится использвать прокси.
Ладно Premiere Pro, у меня ноут на винде после 3 месяцев работы начал тормозить при том, что там используется пакет из Chrome+Outlooks+Slack. Последний вешается почти постоянно теперь. Да, можно аргументировать «кривая поделка на электроне». Но мак-то спокойно тянет. При том, что на у меня маке перманентно открыто десятков программ, Chrome с сотней вкладок, докер и т.п… И все это работает без перезагрузки недели. И там и там — 32Gb оперативки.

А я то первые 3 месяца было радовался — ну вот хотя бы для офисной работы windows стал нормальным.

Может у яблока получится сделать то, что не получилось у MS и хромбуков. Некий ПК для потребления контента, а ля стационарный планшет или smart tv 3.0.

Для потребления контента они айфон уже выпустили. А тут рабочая машина с 8 Гб памяти и 256 Гб ссд за 130 000 рублей *тянет руку к лицу*
Ну тут все таки стоит добавить что «с хорошим монитором». Почему то 4k мониторов с нормальным DPI на удивление мало — вижу только LG Ultrafine 4k за почти что $1k. За ними сейчас охота, на авито их сметают мгновенно ;(

Почему то большинство производителей делают 27" 4k, что выглядит, прямо скажу — мыльно. Может быть особенности виндового скейла, не знаю в чем причина, но вот сделать дешевый монитор с простым удвоением пикселей относительно старых добрых 108 DPI что то не получается.

И тут получается что за за эти бабки мы получаем ну неплохой комп + хороший монитор, но в целом дешевле чем если бы мы покупали это по отдельности.
Монитор, который нельзя использовать как монитор.
Оч странный коммент. Моноблок есть моноблок, у него свои цели и задачи. Тем кому нужен отдельный моник — могут купить Mac Mini, Bluetooth клавиатуру, мышь/трэкпэд и этот Ultrafine.
Да нет, коммент дельный. Я жалею, что моноблоки/ноутбуки нельзя использовать как внешние мониторы для чего-то еще. Video-in было бы очень крутой опцией.

Не знаю, как на новых аймаках, а прошлые было можно использовать как монитор, подключив кабелем mini-DisplayPort. Но, сюрприз (даладна) — только с другими эпловскими компьютерами. Т.е. технически-то не мешает ничего.

Сильно старые модели можно было и к другим компам цеплять. Вот нагуглил:
Модели iMac 27”, выпущенные до конца 2012 года, могут выполнять роль внешнего монитора также для PC или игровых консолей. Для их подключения следует соединить iMac и целевое устройство кабелем Mini Displayport либо кабелем-переходником. При использовании Mini Displayport — HDMI доступен вывод звука на iMac, в то время как при использовании Mini Displayport — DVI передается только звук.
На современных нельзя. iMac 2019 уже не подключается как внешний монитор к ноуту. А жаль, очень не хватает такой фичи
Я бы посоветовал посмотреть на BenQ EW3280U 32"
Почти во всех мониторах LG либо засветы по углам либо неравномерный цвет. Стоит почитать отзывы…

У EW3280U мыла нет на PS4 Pro и под машиной на линуксе.
Для действительно «безмыльного/retina» восприятия текста, подобного тому что сейчас на телефонах, 4k разрешение должно быть на диагональ <= 24", 5k = 27", а тут 4k на целых 32". И вот Apple все правильно сделали, а остальные производители погнались не пойми за чем.

В LG Ultrafine 5k и 4k вроде сейчас нормально с подсветкой, 500нит. Но очень уж они дорогие.

Мне наверное стоит посмотреть как другие операционки ренедерят шрифты, но я говорю именно о «ретиновости» восприятия, когда никаких пикселей совсем не видно. На макоси точно при 4k на 32" будет видно что буквы состоят из пикселей, видно даже на 27" 4k мониторах.

Кам бы не был убогим рендеринг, на таком DPI все нормально даже без сглаживания.

Пользователь нового (3 месяца назад купил) Ultrafine 4K вошёл в чат.
Засветы на месте (в левом нижнем углу довольно заметный). Для монитора за почти 1000 баксов это какой-то стыд.


Покупал в РФ, а там найти в наличии его тяжело :(
С другой стороны, круто, что он умеет по одному кабелю получать картинку и звук и отдавать зарядку + быстрый хаб обратно, плюс шикарный звук у встроенных динамиков, плюс регулировка яркости с мака (но встроенный в монитор сенсор довольно косячный).


Ну и хороших глянцевых мониторов за относительно адекватные деньги днём с огнём не сыщешь, а на матовые я уже не вернусь, слишком уж глянец нравится.

Вот не знаю, для чего может понадобиться 23,5" 4к монитор в стационарном компьютере. Особенно за такую цену.
Уже несколько лет использую монитор 4К 24 дюйма. Качество отображения текста и изображений куда выше, чем на FullHD, глаза устают намного меньше
Ну то, что можно использовать — это я не сомневаюсь. Но выставлять маленький размер как преимущество, достойное немаленькой переплаты? Ну такое, как нынче говорят.
НЛО прилетело и опубликовало эту надпись здесь
Маленький размер чего? Размеры текста, иконок и прочих элементов UI совпадают с размерами, которые были бы на 24 дюймовом FullHD мониторе

Про размер UI уже ответили, он обычный, возможно, вы имели в виду размер самого монитора — отвечаю на этот вариант.
Я пробовал 27" (у жены 4к 27"), преимуществ для себя не нашёл, но диагональ уже "ещё чуть-чуть и будет лишко". Ещё больше уже точно будет неудобно лично мне. Так что для меня 24" 4К прям в самый раз. Но при этом нужен второй монитор (для муз. плеера или фильмов, если рутинные задачи), раньше вторым монитором был 24" фуллхд, сейчас — 13" макбук на подставке.

Более-менее сносные начинаются от 30, а с глянцевым покрытием вообще хрен найдёшь.

Глянцевое покрытие — да, беда, но увы, за это голосуют потребители рублем. Глянцевые мониторы почти не покупают.
Сам много лет не меняю монитор из-за этого)

Что, кстати, странно — слева от меня здоровенное мансардное окно, и запаса яркости LG Ultrafine с лихвой хватает, чтобы не было ни намёка на блики. Видимо, народ просто запуган говномониторами, которые по яркости не вытягивают :)

Ага. У моего уже подсветка давно села, постоянно выкручена на максимум, но все равно ок.
Просто людям при 27" хватает иногда и 1080р и даже 2,5 они считают лишними.
Вон в этой теме отметились те, кто не понимает, зачем на 24" 4к.
Поэтому мыла от антибликового покрытия они не видят.

А где мак явно позиционируется как «рабочая машина»? В роликах показаны довольно простые задачки, браузер, редактирование фото, конференции, офис

Ну с 8 гб они, конечно, загнули, но 16 вполне достаточно. Мой сценарий с Macbook Pro 13 M1 за 160к:


  1. Два окна хрома по ~30 вкладок
  2. IDEA с 1-2 проектами разных размеров — от "обычного", до целого Android (в смысле, дерева исходников самого андроида)
  3. Почта (раньше Spark, не дождался билда под ARM, перелез обратно на Apple Mail)
  4. Два телеграма — один нативный, второй «Light», который дико текущая обёртка хрома, жрёт в среднем около гига
  5. Slack
  6. Apple Music
  7. VLC с видео в FullHD/4K

Ну и мелочи всякие — календарь, заметки, эпизодически фигма, докер и т.д.


Ни намёка на лаги, в среднем занято процентов 70 памяти. Понятное дело, что это достигается за счёт агрессивного сжатия и свапа, но для юзера прозрачно. Жду моделей с 32 гигами, до этого сидел на 32 гб и при том же сценарии было занято около 28 в среднем.


Вполне норм цена для профессионального инструмента, аналоги и на x86-то стоили не дешевле, а частенько и дороже, а на арме вообще аналогов не видать пока.

У хромбуков все получилось. А с учетом того что хромбук, который сносно может в ютуб, можно купить долларов за 150-200, а макбуки на М1 таки стартуют от тысячи, у хромбуков «ПК для потребления контента» пока как минимум сильно доступнее получается.
Некий ПК для потребления контента,
«ПК для потребления контента» — это то же самое что «интернет для госуслуг и стрима первого канала».
> интернет для госуслуг и стрима первого канала
Так-то валидный юзкейс (как в у нас в русских деревнях говорят).
Жаль, что не анонсировали новый проц.
Количество пикселей по сравнению с макбуком выросло в 2.75 раза (4480×2520 = 11289600 против 2560х1600 = 4096000).
Опять на аймаке про игрухи можно забыть.
Ну анонсируют летом или осенью. Очевидно самые интересные новости еще впереди. Там и большой аймак и мощные прошки подвезут
Разрешение выставить в 2 раза ниже и спокойно играть. А то для 4К никакой видяхи в этом формфакторе не хватит.
НЛО прилетело и опубликовало эту надпись здесь
> Опять на аймаке про игрухи можно забыть.
Смотря какие. MacBook Pro M1 спокойно тянет доту 2 в 4K на стабильных 60 FPS в режиме эмуляции x86, например. Другие игры не тестил.

Очень странный компьютер, как мне кажется.
Подставка не регулируется по высоте, огромная нижняя рамка, но они при этом выделяют тонкий и лёгкий корпус, что редко учитывается при выборе моноблока.

Ничего, в следующем году выпустят новый, с революционной технологией регулирования монитора по высоте.
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Имхо намного хуже, когда делаешь перестановку/переезжаешь, на новом месте кронштейн не успел повесить (или вообще нельзя, на съёмной квартире например), куриной ноги нет, а работать уже надо.
НЛО прилетело и опубликовало эту надпись здесь
А отдельно такие ноги случайно не продаются? Надо глянуть на алике на всякий случай
НЛО прилетело и опубликовало эту надпись здесь
Если не читать предыдущие сообщения, то в отрыве от контекста эта фраза выглядит просто великолепно!
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Порылся в алике — есть и просто ноги, и прикручивающиеся к столу, ну там как обычно — у китайцев можно найти всё
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь

Огромная борода в 2021 смотрится странно, да и рамки тоже. Ну да ладно, зато сбоку красиво смотрится.

Где-то сам комп должен стоять. Либо в бороде, либо более толстый корпус.

Ethernet же они спрятали во внешнем блоке питания, так что и здесь могли попробовать как-нибудь выкрутиться.

Это называется мак мини

Можно перенести наверх и повернуть на 90 градусов — полочка будет :)

Для полочки раньше служил CD-ROM.
Что мешало сделать вот так, например? Очевидно, дизайнерские понты. Хотя, есть предположение, что тут еще угол зрения могли учитывать — более высокий монитор пришлось бы выше поднять, чтобы соблюсти правильную осанку и работу глаз пользователя.

image
Мне лично этот вариант не нравится. В этом случае ничего не решает и только идёт возврат к старому варианту.

В Microsoft surface studio в подставку спрятали и ничего.

у яблок тоже такой iMac был — «лампа Джобса»
В этом и дело, что где-то он должен быть.
В светло-серой сноске в спецификации указано, что на самом деле экран 23.5" и видимо 60гц, раз нигде не указано. Рамки как обычно безобразно огромные и традиционная нерегулируемая высота подставки. SSD 256 и 512гб (170к!) продаются с разницей 20 тысяч рублей. Размер оперативки 8гб вообще неприлично произносить для такого ценника.
Это просто мусор какой-то.

Apple ещё не запретили в РФ за пропаганду радуги?

Подставка у этого чуда, кстати, — позорище полное. Был у меня dell 2209wa, вот там была подставка, всем подставкам подставка. Литое основание, стальной профиль, шариковые направляющие, пружины для разгрузки. Четыре степени свободы. Всё очень плавно и мягко каталось. Брал свой локально в DNS, где-то в 09-10 году, за 11 (одиннадцать!) тысяч рублей. А тут за 130 такое мммнээээээ…
Впрочем, типично для огрызка — гламур и минимум «лишней» функциональнсти…

Если раньше Эппл доказывала, что процессов iPad настолько мощный, что способен заменить десктоп, то теперь и доказывать ничего не нужно — везде один и тот же M1.
Ну а вообще, процессор с одинаковой архитектурой на всей линейке — это круто. И если не получилось засунуть x86 в телефон, то получилось засунуть ARM в десктоп. И вместо "горячих" телефонов мы получили "холодные" десктопы.

НЛО прилетело и опубликовало эту надпись здесь
Дайте на нем докер запустить, да Idea с Java и я побежал бы покупать за любые деньги.

Обязательно нужно гвозди микроскопом забивать?
На айпаде удобно рисовать, работать с фото, снимать видео и прямо там обрабатывать, в т.ч. реалтайм превиз или даже финальный рендер.
Понятно ваше желание иметь 2:1, но Apple пока не чувствует необходимость в таких девайсах. Да и продать два устройства выгоднее, чем одно =)
Я лично вообще не приемлю 2:1 как класс, но это моё личное мнение и я его никому не навязываю. Но вот превращать iPadOS в macOS не нужно. Айпады используют люди, которые ненавидят macOS.
НЛО прилетело и опубликовало эту надпись здесь
Что то говорили о подключении кабеля эзернет в выносной блок питания, кто нибудь может пояснить за эту фичу? Правда или вымысел?)
НЛО прилетело и опубликовало эту надпись здесь

Случайно отсоединившийся кабель у ноутбука — пустяк, у десктопа — в лучшем случае потеря недописанного комментария.

Во-первых внешний блок питания сам по себе — все предыдущие и iMac и Mac Mini были со встроенным (лично меня невероятно бесят внешние бруски у многих мониторов).
Во-вторых Ethernet — это всего один разъём, остальное так и идёт в моноблок. Подвешенный дисплей и подставка со всеми разъёмами (и блоком питания) смотрелось бы лучше.
В-третьих, как отметили ниже, кабель питания на магнитике ДЛЯ ДЕСКТОПА?!

НЛО прилетело и опубликовало эту надпись здесь

Я никогда не держал в руках эппловские изделия с магнитными разъемами. Есть недоверие к надежности устройства без аккумулятора с питанием на магнитике. Да, это все опасения. Но в истории автомобилей есть случаи аварий вызванных закатыванием бутылки под педаль тормоза. Если натянуть провод питания (или подсунуть под него что-то на захламленном столе, а потом пошевелить монитор (регулировка наклона, пододвинуть к себе, повернуть соседу), потеряем питание?

Я умудрялся отключать питание даже в случае старого разъема, когда столом прижимал кабель и пытался наклонить монитор "от себя". Думаю здесь это тоже сработает.

потеряем питание?

Магнитный разьем не для этого. А для того когда вы или кто-то другой случайно дернет провод, то ваш ноут не улетит на пол. И меня эта функция на старых Apple ноутах несколько раз спасала.
НЛО прилетело и опубликовало эту надпись здесь

Для ноутбука справедливо.
В данной конструкции провод питания проходит через подставку. От падения магнитный разъем спасет только при перпендикулярном направлении выдергивания. И то в случае постепенного утолщения оболочки кабеля от толщины шнура до толщины разъема. В данном же варианте выскочивший кабель сразу зацепится за край отверстия подставки. Единственный выигрыш — при наличии внутри HDD он успеет запарковаться и упадет на пол без повреждения блинов.


Я своему телефону поставил магнитный разъем на питание. Вот там он действительно нужен, оправдан. И дома удобно и в автомобиле. Ценовой сегмент моих телефонов не захватывает ни сразу модели с магнитами ни с беспроводной зарядкой, ибо данные устройства в категории расходников.

НЛО прилетело и опубликовало эту надпись здесь
Зашибись… У Apple кончились здравые аргументы, теперь в ходу «цветная революция»… Стив Джобс наверняка крутится в гробу как белка в колесе…
Да, в его-то времена ничего подобного не было! Скоро, скоро сдохнет проклятущий Эппл!
image
image
Купил себе минимак 16gb/1Tb, подключил к 49 дюймовому монитору, пока полет нормальный, но большинство адаптированных приложений в бета-версии, да и сама макось только в бетке работает относительно годно. Видео монтировать норм, кодить вполне тоже в vscode через ssh. Фильмы в 4к переваривает на ура, браузер файрфокс летает, вентилятор можно сказать не включается никогда, комп всегда ледяной, больше ничего не нужно.

Но вот аймак такой брать как минимум экрана маловато, да и смысл, жду когда сделают какой-нибудь еще более быстрый проц.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Истории