Комментарии 172
Поэтому, на страничке https://www.apple.com/ru/imac-24/ сначала фото (все цвета)
Потом про толщину (вдруг у Вас мало места на столе)
Потом про вес (я сдержался)
Потом про thunderbolt
Кабель питания на магните и окрашен в тон
Описание качества дисплея
Камеры
Микрофонов
Динамиков
Реклама чипа м1
Интересно, 16Гб — это аппаратный предел?
The memory limit for the ARM Macs probably comes from the maximum size of the memory die that they can place in the MCM, which contains the CPU. The MCM (Multi-Chip Module) is several dies (separate silicon chips), all placed in one package. MCMs allow a much faster connection between the separate chips and make manufacturing easier as there is one package to solder rather than 3.
I don’t see there being any difference between the Intel and ARM Mac mini, for instance, in terms of memory usage. They both use integrated graphics, meaning they have GPU cores which share RAM with the CPU. They will both use about the same amount of memory.
I think the limit on RAM on the ARM Macs is therefore due to what Apple could design and manufacture in the schedule they gave themselves rather than due to a difference in the architecture of the M1. They probably think, correctly, that 95% of users need 16 GB or less of RAM.
Разница хотя бы в расстоянии между gpu и кристаллами памяти — при использовании DIMM оно заметно больше, а для встроенного видео это существенно.
Разница хотя бы в расстоянии между gpu и кристаллами памяти — при использовании DIMM оно заметно больше, а для встроенного видео это существенно.
Во-первых, латентность DIMM (DDR4) заметно ниже встроенной LPDDR4.
DDR4 60-80ns (intel-amd)
LPDDR4 96ns (M1, 98ns — Tiger Lake)
Установка LPDDR поверх упаковки — вопрос в первую очередь компактности и цены, а не производительности.
Тут правда есть нюансы, а именно отличия в работе 2*64-бит против 8*16-бит.
Во-вторых, GPU спроектированы так, чтобы компенсировать высокую латентность.
Никогда не интересовались, сколько занимает доступ к L1 кэшу на GPU?
twitter.com/Locuza_/status/1032691135582560256
В AMD GCN так:
L1 кэш-попадание 114 тактов
L2 кэш-попадание 350 тактов
На частоте 1ГГц имеем L1 кэш хит за время полного обращения к памяти на CPU.
К чему вообще акцентировать внимание на «встроенности»? Дискретный чип ничем не отличается от встроенного в этом плане.
У дискретного чипа своя шина, своя память. Интегрированное видео конкурирует с процессором за контроллер памяти, шину и саму память. eDram/HBM помогают этого избежать.
То есть можно набрать 16 ГБ видеопамяти из рассыпухи, разместить в соседней тумбочке
Из какой рассыпухи? Посмотрите на размер модуля DIMM и расстояние, которое проходит сигнал от каждого чипа через плату до процессора. Это расстояние довольно большое, тем не менее латентность меньше чем у LPDDR чипа, распаянного прямо на упаковке.
Не понимаю зачем вы спорите — я вам дал конкретные цифры.
Пока задержка на передачу составляет незначительную часть латентности модуля, можно хоть в тумбочке держать.
А с рассинхронизацией широкой параллельной длинной шины как быть?
Посмотрите на материнскую плату, особенно серверную. 8 каналов по 64 бита.
Проблема с «рассинхронизацией широкой параллельной длинной шины» решена.
И не она ли одна из причин высокой латентности?
Нет. Причина высокой латентности это физический принцип работы DRAM.
Интегрированное видео конкурирует с процессором за контроллер памяти, шину и саму память.
Фигня. Современный GPU компенсирует тысячи тактов латентности без проблем.
А вот ПСП процессор может у GPU отжирать заметно.
eDram/HBM помогают этого избежать.
Латентность у HBM, насколько я знаю, ещё хуже чем у LPDDR4 и тем более у DDR4 :)
«У дискретного чипа своя шина, своя память. Интегрированное видео конкурирует с процессором за контроллер памяти, шину и саму память.»
Ну и сниженное потребление в LPDDR это больше про напряжение питания ради снижения нагрева и продления работы от аккумуляторов в мобильных устройствах, а уже как следствие некоторое терпимое снижение производительности. Ну и организация памяти имеет значение.
Встроенное в процессор видео всё же сравнивать с оптимизированной архитектурой кмк не стоит.
MacBook на M1 у жены сильно радует, но себе брать с 16 гб не хочу.
Chinese maintenance engineers can already expand the capacity of the Apple M1. The 8GB memory has been expanded to 16GB, and the 256GB hard drive has been expanded to 1TB.
Читаю по ссылке обсуждение:
twitter.com/caribbeanxblue/status/1378731240782757889
Вывод: 32 Гб поставить невозможно сейчас.
Где паяли 32 Гб? Я пока видел только перепайку модели 8 Гб на 16 Гб.
Перестаньте распространять вот это про "тайминги на минималках".
Там обычная память LPDDR4x, тайминги которой идентичны мобильным платформам на Intel/AMD. Расположение чипов памяти рядом с CPU нужно исключительно для уменьшения энергопотребления.
А ограничение объёма там в контроллере памяти. Его таким спроектировали ровно под требования конечных устройств.
Тайминги зависят и от чипов
В современных ноутбуках практически одни и те же чипы LPDDR4X стоят.
и от длинны проводников
Можете прикинуть, какой величины разница получается между 5 мм (грубая оценка для M1) и 5 см (типичный ультрабук), например? Подсказка: на фоне задержки DRAM её не видно.
и количества точек подключения
Зависимость latency от количества подключенных чипов — это внутренние ограничения конкретных контроллеров памяти в процессорах, никаких физических причин для этого нет.
На всякий случай, приведу реальные измерения задержек памяти мобильного AMD Zen 2 (отсюда) и Apple M1 (отсюда) — смотреть на жирную оранжевую линию ближе к правому краю.
Ну так учтите. Сколько выходит?
И потом объясните, как M1 с "таймингами на минималках" и близкими чипами имеет ровно ту же задержку доступа, что и обычный AMD Renoir (и Intel Tiger Lake)?
Напряжение ни при чём в данном случае.
Прекратите пороть чушь, ей больно.
Ëмкость проводников может влиять только на длительность переходного процесса (полутакта), и эта длительность видна прям из основного параметра памяти — частоты шины.
Тайминги — это количество тактов, за которые память готова ответить на запрос. У энергоэффективной LPDDR4X тайминги намного выше, чем у обычной DDR4, что объясняется другой внутренней архитектурой чипов.
Общая же задержка складывается из архитектуры кэшей и частоты и таймингов памяти. Для разных процессоров даже с идентичными характеристиками памяти она может быть разной.
Для сравнения с приведёнными выше значениями для мобильных платформ (LPDDR4X-4266) — десктопные Intel Core i7-11700K и AMD 5950X — на одной и той же DDR4-3200.
На распаяной памяти вы можете получить четыре банка на минимальный таймингах и максимальной частоте, а на внешней — нет. На внешней памяти у вас максимальная частота сразу на 20% упадёт. Вы, конечно можете на внешней играться с напряжениями и таймингами и оно даже может на некотором сочетании планок и настроек заработать, но это будет уже области гадания и везения.
Я очень хотел бы посмотреть, как вы стабильно заведёте 4 планки LPDDR4 (не говоря о 4x) на максимальной штатной частоте (1600 МГц).
И да, ниже стабильно-достижимые тайминги будут на распаянной памяти. Естественно, что тайминги мы измеряем в нС, а не в тактах, так вы просто частоты равные даже не получите на хороших чипах.
А зачем нужен "компьютер" с 8 ГБ оперативки? В чем вообще смысл существования данной модели?
Смотрю на свой комп, тянущий миллионы полигонов в Zbrush и 4-8к текстурирование в Substance, который обошёлся мне процентов на 30 меньше минимальной комплектации этого чуда, и понимаю, что что-то тут не так.
Mac выбирают не за то, что он на 30% дороже или быстрее, его выбирают за комфорт при использовании.
Хотя, справедливости ради, надо отметить, что ужасный touchbar вверху — худшее, что в него встроили. Этот реально замедляет работу на нем прямо реально.
В чем вообще смысл существования данной модели?
В связи с пандемией резко вырос спрос на устройства для учёбы/работы из дому для непрограммистов. Я бы, например, взял такой для дочки чтоб в школу «ходила». Для Teams, Office и Сафари 8 Гб хватит, компьютер красивый, сочные цвета на ярком в 500 nits мониторе, быстрый процессор, обещают три микрофона студийного качества и улучшенную камеру.
PS: понятно, что для такого софта можно найти/собрать компьютер и за треть ценника Apple, но мне нравится macOS, да и симпатичный он. Для некоторых людей в некоторых ситуациях цена не главный критерий, тихий изящный Mac c хорошим монитором может найти покупателей.
PPS: говорю «взял бы» потому как сейчас у неё MacBook Air M1, но если бы покупал сейчас, то выбрал бы десктоп из-за большего монитора, лучшей камеры и микрофонов.
На маке с M1 правда какая-то магия с оперативкой работает. Я лично сейчас с него печатаю (с восьмигигового), в браузере у меня зачем-то 300 вкладок, и за другими открытыми приложениями можно не следить вообще. В том числе видео монтировал, ничего не закрывая.
Программировать на нём не пробовал, к сожалению, про этот опыт рассказать не могу.
Но изучите обзоры/сравнения, 8 гигов там очень хорошо работают по многозадачности, на удивление. При том, что на windows-десктопах мне 16 гигов некомфортно, у меня на обоих по 32.
На маке с M1 правда какая-то магия с оперативкой работает.
Она и не только на M1 такая. Вроде они называли её трехсегментной:
1. основная оперативная память
2. активные кэши (включая агрессивный кэш над файловой системой)
3. зипованный своп в памяти
4. своп на диске
Когда в (1) память подходит к границе, то из (2) часть удаляется, часть зипуется и переносится в (3).
Если (3) достигает определенных лимитов, то он сбрасывается в (4) выделяя память для (1).
Где-то унутри документации разработчиков ядерных у них читал про это. Сейчас не смог быстро найти ссылку.
Были слухи про повышенную утилизацию SSD. Возможно с этим связанно.
Мы все-таки на техническом ресурсе, давайте оставим "магию Apple" для сайта woman.ru.
в браузере у меня зачем-то 300 вкладок, и за другими открытыми приложениями можно не следить вообще.
Круто что в макоси смогли сделать работающую подкачку.
Вот Вам простой наблюдаемый факт: мой 5 летний проект в Premiere Pro содержит более 3.5 тысяч файлов, при попытке первого открытия (с кэшированием) на компуктере под управлением Windows, даже с 32 GB RAM, у этого чуда инженерной мысли нет абсолютно никаких шансов не крашонуться. Но стоит мне открыть тот же проект на своем Macbook c 8GB RAM, так сразу же все прогружается и кешируется, и что удивительно без единого краша. На Mac OS Premiere Pro просто работает и не плачет по поводу недостатка оперативки.
Никогда не забуду как купил первый iPad в 2010 году и закинул на него Quake 3 Arena. Летала она в 50 кадров, при процессоре в 1 ГГц/1 ядро и оперативе 256 МБ. Спустя год-два вышел планшет Samsung 2ГГц/2 ядра/2ГБ RAM, вот думал оторвусь в той же Quake! Ага… 17 кадров еле выдавал…
Из этого можно сделать однозначны вывод, главное не цифры, а оптимизация, ведь когда ее нет, даже 32GB оперативки или супер процессор не спасет.
У меня все =)
Самый действенный из найдённых рецепт для Windows — почаще сохранять промежуточные копии.
Я дико извиняюсь, но Q3 у меня работал на Celeron 500, 128 оперативки, GeForce 2 MX 400.
60+ fps.
Что за магическая оптимизация была там?
У iPad разрешение экрана 2048x1536, а GPU в Apple A4 работает на тех же 200МГц что и ваш GF2MX400, ПСП примерно такая же (3,2ГБ/c на всё).
1024 х 768
на тех же 200МГц
Сейчас бы мегагерцы видеокарт сравнивать....
Из этого можно сделать вывод, что Кармак в девяностых оптимизировал Q3 для айпэда, который вышел в 2010?
1024 х 768
Т.е. фреймбуффер в четыре раза меньше.
Сейчас бы мегагерцы видеокарт сравнивать....
А почему бы не сравнить? Не для того ли вы написали спеки вашего компа?
Я просто говорю о том, что эти GPU примерно одного уровня, вплоть до идентичных показателей ПСП, филлрейта и т.п.
hw-museum.cz/vga/170/asus-geforce2-mx400-64-mb
ROP 2
TMU 4
Clock 200 MHz
Pixel fillrate 400 MP/s
Bandwidth 3200 MB/s
gadgetversus.com/graphics-card/imagination-powervr-sgx535-specs
Apple A4 GPU (PowerVR SGX535)
Execution units 2
Pixel fillrate 0.4 GPixel/s
Bandwidth 3200 MB/s
Из этого можно сделать вывод, что Кармак в девяностых оптимизировал Q3 для айпэда
Это исключительно ваши фантазии. Ни про Кармака, ни про оптимизации я ни слова ни сказал.
Вы бросаетесь спеками, которые по-сути аналогичны озвученному айпаду, и удивляетесь что он работает так же или даже лучше.
gamekeeper
21.04.2021 в 12:15
<некоторый контент пропущен>
Из этого можно сделать однозначны вывод, главное не цифры, а оптимизация, ведь когда ее нет, даже 32GB оперативки или супер процессор не спасет.
У меня все =)
Вы в двух
Ещё раз — про оптимизацию я ничего не говорил. Я лишь отметил, что устаревшее железо, которым вы бряцали, примерно аналогично установленному в iPad 2010г.
Что до вами отквоченного вывода, то он банален по своей сути как «вода-мокрая» и «солнце-яркое» и с ним сложно не согласиться.
Оказывается что FinalCut на нем совершенно спокойно можно обрабатывать 4k с навигацией в реальном времени (рендер будет долгим, но вменяемым). Premier Pro, правда, не тянет. Я не знаю что они там оптимизировали, но довольно мощный десктоп с виндой и premier pro такого близко не может. Приходится использвать прокси.
А я то первые 3 месяца было радовался — ну вот хотя бы для офисной работы windows стал нормальным.
Может у яблока получится сделать то, что не получилось у MS и хромбуков. Некий ПК для потребления контента, а ля стационарный планшет или smart tv 3.0.
Почему то большинство производителей делают 27" 4k, что выглядит, прямо скажу — мыльно. Может быть особенности виндового скейла, не знаю в чем причина, но вот сделать дешевый монитор с простым удвоением пикселей относительно старых добрых 108 DPI что то не получается.
И тут получается что за за эти бабки мы получаем ну неплохой комп + хороший монитор, но в целом дешевле чем если бы мы покупали это по отдельности.
Не знаю, как на новых аймаках, а прошлые было можно использовать как монитор, подключив кабелем mini-DisplayPort. Но, сюрприз (даладна) — только с другими эпловскими компьютерами. Т.е. технически-то не мешает ничего.
Модели iMac 27”, выпущенные до конца 2012 года, могут выполнять роль внешнего монитора также для PC или игровых консолей. Для их подключения следует соединить iMac и целевое устройство кабелем Mini Displayport либо кабелем-переходником. При использовании Mini Displayport — HDMI доступен вывод звука на iMac, в то время как при использовании Mini Displayport — DVI передается только звук.
Почти во всех мониторах LG либо засветы по углам либо неравномерный цвет. Стоит почитать отзывы…
У EW3280U мыла нет на PS4 Pro и под машиной на линуксе.
В LG Ultrafine 5k и 4k вроде сейчас нормально с подсветкой, 500нит. Но очень уж они дорогие.
Мне наверное стоит посмотреть как другие операционки ренедерят шрифты, но я говорю именно о «ретиновости» восприятия, когда никаких пикселей совсем не видно. На макоси точно при 4k на 32" будет видно что буквы состоят из пикселей, видно даже на 27" 4k мониторах.
Кам бы не был убогим рендеринг, на таком DPI все нормально даже без сглаживания.
Пользователь нового (3 месяца назад купил) Ultrafine 4K вошёл в чат.
Засветы на месте (в левом нижнем углу довольно заметный). Для монитора за почти 1000 баксов это какой-то стыд.
Покупал в РФ, а там найти в наличии его тяжело :(
С другой стороны, круто, что он умеет по одному кабелю получать картинку и звук и отдавать зарядку + быстрый хаб обратно, плюс шикарный звук у встроенных динамиков, плюс регулировка яркости с мака (но встроенный в монитор сенсор довольно косячный).
Ну и хороших глянцевых мониторов за относительно адекватные деньги днём с огнём не сыщешь, а на матовые я уже не вернусь, слишком уж глянец нравится.
Про размер UI уже ответили, он обычный, возможно, вы имели в виду размер самого монитора — отвечаю на этот вариант.
Я пробовал 27" (у жены 4к 27"), преимуществ для себя не нашёл, но диагональ уже "ещё чуть-чуть и будет лишко". Ещё больше уже точно будет неудобно лично мне. Так что для меня 24" 4К прям в самый раз. Но при этом нужен второй монитор (для муз. плеера или фильмов, если рутинные задачи), раньше вторым монитором был 24" фуллхд, сейчас — 13" макбук на подставке.
4к мониторов полно. От 15к за TN.
Более-менее сносные начинаются от 30, а с глянцевым покрытием вообще хрен найдёшь.
Глянцевое покрытие — да, беда, но увы, за это голосуют потребители рублем. Глянцевые мониторы почти не покупают.
Сам много лет не меняю монитор из-за этого)
Что, кстати, странно — слева от меня здоровенное мансардное окно, и запаса яркости LG Ultrafine с лихвой хватает, чтобы не было ни намёка на блики. Видимо, народ просто запуган говномониторами, которые по яркости не вытягивают :)
Ну с 8 гб они, конечно, загнули, но 16 вполне достаточно. Мой сценарий с Macbook Pro 13 M1 за 160к:
- Два окна хрома по ~30 вкладок
- IDEA с 1-2 проектами разных размеров — от "обычного", до целого Android (в смысле, дерева исходников самого андроида)
- Почта (раньше Spark, не дождался билда под ARM, перелез обратно на Apple Mail)
- Два телеграма — один нативный, второй «Light», который дико текущая обёртка хрома, жрёт в среднем около гига
- Slack
- Apple Music
- VLC с видео в FullHD/4K
Ну и мелочи всякие — календарь, заметки, эпизодически фигма, докер и т.д.
Ни намёка на лаги, в среднем занято процентов 70 памяти. Понятное дело, что это достигается за счёт агрессивного сжатия и свапа, но для юзера прозрачно. Жду моделей с 32 гигами, до этого сидел на 32 гб и при том же сценарии было занято около 28 в среднем.
Вполне норм цена для профессионального инструмента, аналоги и на x86-то стоили не дешевле, а частенько и дороже, а на арме вообще аналогов не видать пока.
Некий ПК для потребления контента,«ПК для потребления контента» — это то же самое что «интернет для госуслуг и стрима первого канала».
Количество пикселей по сравнению с макбуком выросло в 2.75 раза (4480×2520 = 11289600 против 2560х1600 = 4096000).
Опять на аймаке про игрухи можно забыть.
Смотря какие. MacBook Pro M1 спокойно тянет доту 2 в 4K на стабильных 60 FPS в режиме эмуляции x86, например. Другие игры не тестил.
Очень странный компьютер, как мне кажется.
Подставка не регулируется по высоте, огромная нижняя рамка, но они при этом выделяют тонкий и лёгкий корпус, что редко учитывается при выборе моноблока.
Только в момент покупки:
https://www.apple.com/shop/buy-mac/imac-vesa/silver-24-inch-apple-m1-chip-with-8-core-cpu-and-8-core-gpu-256gb
Но либо ножка, либо vesa. Съёмнач ножка была только на imac pro, либо на imac до 2009 года, емнип.
Огромная борода в 2021 смотрится странно, да и рамки тоже. Ну да ладно, зато сбоку красиво смотрится.
Ethernet же они спрятали во внешнем блоке питания, так что и здесь могли попробовать как-нибудь выкрутиться.
Можно перенести наверх и повернуть на 90 градусов — полочка будет :)
В Microsoft surface studio в подставку спрятали и ничего.
Это просто мусор какой-то.
8 гб за столько...
Apple ещё не запретили в РФ за пропаганду радуги?
Впрочем, типично для огрызка — гламур и минимум «лишней» функциональнсти…
Если раньше Эппл доказывала, что процессов iPad настолько мощный, что способен заменить десктоп, то теперь и доказывать ничего не нужно — везде один и тот же M1.
Ну а вообще, процессор с одинаковой архитектурой на всей линейке — это круто. И если не получилось засунуть x86 в телефон, то получилось засунуть ARM в десктоп. И вместо "горячих" телефонов мы получили "холодные" десктопы.
Дайте на нем докер запустить, да Idea с Java и я побежал бы покупать за любые деньги.
Обязательно нужно гвозди микроскопом забивать?
На айпаде удобно рисовать, работать с фото, снимать видео и прямо там обрабатывать, в т.ч. реалтайм превиз или даже финальный рендер.
Понятно ваше желание иметь 2:1, но Apple пока не чувствует необходимость в таких девайсах. Да и продать два устройства выгоднее, чем одно =)
Я лично вообще не приемлю 2:1 как класс, но это моё личное мнение и я его никому не навязываю. Но вот превращать iPadOS в macOS не нужно. Айпады используют люди, которые ненавидят macOS.
Было в презентации: https://techcrunch.com/2021/04/20/the-m1-imacs-power-supply-sports-magnetic-connector-ethernet-port/
Очень странное решение, как по мне, особенно магнитный разъём для настольного компьютера.
Случайно отсоединившийся кабель у ноутбука — пустяк, у десктопа — в лучшем случае потеря недописанного комментария.
Во-первых внешний блок питания сам по себе — все предыдущие и iMac и Mac Mini были со встроенным (лично меня невероятно бесят внешние бруски у многих мониторов).
Во-вторых Ethernet — это всего один разъём, остальное так и идёт в моноблок. Подвешенный дисплей и подставка со всеми разъёмами (и блоком питания) смотрелось бы лучше.
В-третьих, как отметили ниже, кабель питания на магнитике ДЛЯ ДЕСКТОПА?!
Я никогда не держал в руках эппловские изделия с магнитными разъемами. Есть недоверие к надежности устройства без аккумулятора с питанием на магнитике. Да, это все опасения. Но в истории автомобилей есть случаи аварий вызванных закатыванием бутылки под педаль тормоза. Если натянуть провод питания (или подсунуть под него что-то на захламленном столе, а потом пошевелить монитор (регулировка наклона, пододвинуть к себе, повернуть соседу), потеряем питание?
Я умудрялся отключать питание даже в случае старого разъема, когда столом прижимал кабель и пытался наклонить монитор "от себя". Думаю здесь это тоже сработает.
потеряем питание?
Магнитный разьем не для этого. А для того когда вы или кто-то другой случайно дернет провод, то ваш ноут не улетит на пол. И меня эта функция на старых Apple ноутах несколько раз спасала.
Для ноутбука справедливо.
В данной конструкции провод питания проходит через подставку. От падения магнитный разъем спасет только при перпендикулярном направлении выдергивания. И то в случае постепенного утолщения оболочки кабеля от толщины шнура до толщины разъема. В данном же варианте выскочивший кабель сразу зацепится за край отверстия подставки. Единственный выигрыш — при наличии внутри HDD он успеет запарковаться и упадет на пол без повреждения блинов.
Я своему телефону поставил магнитный разъем на питание. Вот там он действительно нужен, оправдан. И дома удобно и в автомобиле. Ценовой сегмент моих телефонов не захватывает ни сразу модели с магнитами ни с беспроводной зарядкой, ибо данные устройства в категории расходников.
Но вот аймак такой брать как минимум экрана маловато, да и смысл, жду когда сделают какой-нибудь еще более быстрый проц.
Apple представила iMac на чипе M1 в семи ярких цветах