Как стать автором
Обновить

Комментарии 145

Мне очень интересно, а почему всегда проц стараются сделать маленьким, и не увеличивают размер. На материнке место есть, вроде бы ничего не мешает

Чем больше кристаллов процессора умещается на кремниевую пластину, тем выгоднее (больше выход процессоров за раз с пластины, больше процессор на единицу времени).

более того, если на пластине дефект, то он затрагивает меньший процент процессоров с пластины. Была где-то новость в своё время что AMD и TSMC удалось довести выход годных для ZEN2 до 96% т.е. даже если были дефекты, то процессоры шли в дело с отключенным одним или двумя ядрами. Такой процент выхода годных очень высок.

Была где-то новость в своё время что AMD и TSMC удалось довести выход годных для ZEN2 до 96% т.е. даже если были дефекты, то процессоры шли в дело с отключенным одним или двумя ядрами. Такой процент выхода годных очень высок.

Для сравнения из более-менее свежих примеров - когда playstation 5 только вышла ходили слухи что выход годных кристаллов для нее болтался где-то на уровне 40-50%. Все остальное в помойку шло.

Технически я так понимаю это все же не один процессор, а два, соединенные специальной шиной. Так что выход готовой продукции должен быть почти на уровне обычного M1.

Я бы предположил как раз наоборот — один большой(в плане того что производится как один чип сразу, иначе я не представляю как физически соединять два отдельных кристалла этой шиной), а уж если что-то не получилось как надо, пилят на половинки по шине как раз и получаются отдельные M1 Max-ы.

Да, думаю вы правы, но этот ряд можно видимо продолжать дальше. M1 Max -> M1 Pro -> M1. Да даже самый обычный M1 есть с 7 ядрами GPU и 8, это как раз и есть отбраковка.

На скринах выглядит именно что отдельные чипы https://www.servethehome.com/wp-content/uploads/2022/03/Apple-UltraFusion-Interconnect.jpg Два кристалла. Между ними шина, которая идет через подложку, либо через какой-то еще слой под кристаллами. Это все очень похоже на технологии упаковки TSMC https://3dfabric.tsmc.com/english/dedicatedFoundry/technology/3DFabric.htm

Просто если это все же один кристалл, то это тупик. Это не скейлится дальше, а у эпл вперед еще mac pro, где чип намного больше будет.

На скринах выглядит именно что отдельные чипы www.servethehome.com/wp-content/uploads/2022/03/Apple-UltraFusion-Interconnect.jpg Два кристалла. Между ними шина, которая идет через подложку, либо через какой-то еще слой под кристаллами.

Я бы не стал отталкиваться от скриншотов из презентационного рендер-видео в плане догадок как же оно реализовано, но вообще такой вариант был бы логичен(гораздо проще получить два отдельных M1 max с нужным работающим количеством блоков и объединить в M1 ultra, чем пытаться получить один чип M1 ultra в котором все нужные блоки нормально работают).

так ведь этот интерконнект еще на M1Max находили, задолго до презентации M1Ultra. По факту, на этом и строились спекуляции что следующий чип apple по сути является склейкой двух предыдущих. Как мы видим, спекуляции оправдались. Точнее, apple со своей стороны эти спекуляции подтвердили.

Плюс, легально публичная компания не имеет права врать о подобных вещах в пресс-релизах.

Но наличие интерконнекта на M1 max не дает понять режут они один большой M1 ultra на два M1 max или же «склеивают» два M1 max в один M1 ultra.

Склеивать технологически проще, иначе придется после распила на пары и их тестирования неудачные пары еще раз распиливать и тестировать. Причем, если распил пластины — операция штатная, то вот пары — точно нет.

Потому что скорость распрстранения сигнала конечна. Чем меньше процессор, тем меньше проблем с согласованием частоты между его блоками.

Большие процессоры типа М1 - это начало конца. Признание того что мы не можем больше существенно увеличить скорость процессора. Максимум - выделить устоявшиеся алгоритмы для обработки видео, изображений, шифрования в отдельные аппаратные блоки. Да, такие блоки меньше кушают и быстрее работают, но на все случаи жизни аппаратных блоков не напасешься.

Да, я понимаю, что скорость света конечна. Значит есть влияние на таких микроскопических масштабах. Спасибо за информацию

Если речь об увеличении кристалла, то нет, тут скорость распространения сигнала не особо фактор. Не те масштабы. Тут в первую очередь причина в том, что, по сути, вся стоимость процессора это стоимость куска кремния, из которого он сделан. По этой причине чуть ли не самое важное в производстве процессора это процент выход годных чипов с кремниевой пластины. Мы вполне себе достигли экономических пределов размера кристаллов и единственный путь вперед это чиплеты. И по этой причине размеры подложек как раз таки постоянно растут. Людям нужном больше pcie линий, больше каналов памяти, процессору нужно больше питания - растет число ножек, а от того и подложка. С этим как раз проблемы нет, процессоры будут продолжать становиться все больше и больше. Они и так уже огромные. Какой-нить серверный EPYC посмотрите. И это обычный процессор без памяти на борту. Сейчас в серверный сегмент и память начнут на подложку класть.

Я смотрю с точки зрения того, что работает на практике. На практике мы видим, что у инженеров нет никакой проблемы строить огромные по площади процессоры с кучей кристаллов (вроде интеловского понте векио). Раз это работает и размеры процессоров продолжают увеличиваться, то я заключают что да, масштабы не те, чтобы это стало преградой. Может приходится понижать частоты, но пока все решаемо.

Где преграду я вижу так это, например, в PCIe, где расстояния порой метрами исчисляются. Вот там и куча проблем с разводкой, и ретаймеры всякие нужны.

Проблема у инженеров на самом деле есть, просто большие кристаллы состоят из достаточно слабо связанных достаточно маленьких блоков. Наращивание процессора можно вести только через наращивание числа блоков, но нельзя увеличивать размер одного блока.

Не совсем понятно, о каких блоках речь. Векторные процессоры GPU это отдельные блоки? ALU процессора это отдельные блоки? Потому что у нас нет особо проблем их наращивать и никто в индустрии не говорит об этом. По крайней мере, я такого не слышу. Что я слышу - нет никакой проблемы наращивать логику. Просто КПД у нее будет нулевой.

Фундаментально видно только две проблемы. Экономическая - физический размер кристалл экспоненциально увеличивает стоимость. Архитектурная - логика требует увеличивать количество поддерживающей инфраструктуры - планировщики, кэши, буферы, регистры и т.д. Именно она занимает подавляющее большинство кристалла в любом процессоре практически. И ни в той, ни в другой проблеме я не вижу влияния проблемы согласования частот или других проблем скорости распространения сигнала.

Обе эти проблемы пока что удалось решить прогрессом в технологиях упаковки и интерконнектах. Экономическая проблема решилась тем, что кристаллов теперь несколько, и они маленькие. Как следствие, архитектурная проблема ушла частично, потому что мы можем поддерживающую инфраструктуру нарастить. АМД очень лихо продолжает наращивать L3 кэш вплоть до гигабайта.

Сейчас мы сталкиваемся с другой фундаментальной проблемой, и она опять архитектурная - прогресс в памяти практически стоит на месте. Мы не можем обеспечить логику должным потоком данных и разместить ее в нужном объеме. Поэтому здесь на первый план выходит увеличение слоев иерархии кэшей, размещение памяти на подложке, HBM, вынос оперативной памяти на PCIe шину и прочие интерконнекты уровня стоек.

Есть. Посмотрите архитектуру всех этих здоровенных процессоров. Там везде слабо связанные блоки.

Яркий пример это AMD Epyc. Ядер вроде очень много, но если ваша задача требующая активного обмена данными между процессами попала на разные физические блоки этого процессора пишите все пропало. Десятки процентов, а то и разы замедления на пустом месте получите. Это не инженеры AMD плохие, это физика по другому делать запрещает.

Вот теперь все и городят привязку к физическому блоку процессора. И даже в нагруженном софте это начинают учитывать. Сколько ядер реально быстро общаются друг с другом. Больше в одной активно передающей туда-сюда данные приложеньке использовать не стоит, от этого одни минусы. Лучше вторую копию той же приложеньки запустить.

Опять же, здесь нет никаких проблемы согласования частот или чего-то другого фундаментального. Изначальный разговор начался именно с этого. Это чисто инженерная софтварная проблемы. Деление на NUMA ноды, афинити на ядра и т.д. и т.п. это все легко решаемые проблемы. И нам с ними продолжать жить, потому что лучше не станет. Поэтому еще раз повторюсь, у производителей процессоров нет никакой проблемы наращивать размеры процессора, увеличивать число кристаллов и интерконнектов. Это увеличит задержки, это снизит скорость обмена в крайних случаях, но это не фундаментальная проблема. Прогресс идет и будет идти в эту сторону, пока мы не придумаем решение по-лучше.

В качестве еще одного доказательства, посмотрите в сторону CXL и GenZ. Вся идея этих технологий в том, чтобы иметь иллюзию единой вычислительной машины из не просто несколько процессоров на материнке, а нескольких серверов и стоек. А задержки там совсем других порядков.

Все это приходится делать из-за физических ограничений. В пределы размера одного цельного вычислительного блока уже уперлись и из-за этого архитектуры стали такими.

Деление на NUMA ноды, афинити на ядра и т.д. и т.п. это все легко решаемые проблемы.

Решаемы, но не то чтобы очень легко. Все оркестраторы переписывать надо. И это новые проблемы, которых раньше не было.

В качестве еще одного доказательства, посмотрите в сторону CXL и GenZ. Вся идея этих технологий в том, чтобы иметь иллюзию единой вычислительной машины из не просто несколько процессоров на материнке, а нескольких серверов и стоек. А задержки там совсем других порядков.

И это не получилось. И вероятно не получится. Потери производительности при общении между нодами слишком велики. Как их снизить на порядок непонятно, физика против.

Кажется даже цели такой не стояло. Точно есть цель снизить стоимость одного ядра на полном жизненном цикле сервера. Эта цель выполняется.

Я к тому что увеличение размера больше не повышает вычислительную скорость уcловного "одного вычислителя". Мы просто получаем многопроцессорные системы. Более быстрые чем раньше, но все их проблемы и особенности никуда не деваются.

Как выше писал, единственная физическая проблема здесь, которую я вижу и слышал, это стоимость. Потому что банально большие кристаллы делать дорого, брак высокий. Нигде и никогда я не слушал упоминаний, что чего-то им сложно согласовать там. Да, очевидно это все чрезвычайно сложно внутри устроено, но это не выглядит препятствием прогрессу. Если бы нам не мешала стоимость и мы делали бы кристаллы размером в квадратный метр, то наверное да, там бы мы уперлись в непробиваемую стену физики.

Решаемы, но не то чтобы очень легко. Все оркестраторы переписывать надо. И это новые проблемы, которых раньше не было.

Надо и вроде переписывают. Планировщики ОС такое умеют. Гипервизоры тоже. Я больше вижу проблему в плане IO, чем в вычислениях. Вот где стек реально не готов к скоростям и там просто нет инструментов для решениях этих проблем, нужны новые. Они конечно есть DPDK, SPDK, но их распространение минимально. Когда линукс ядро само научится это делать вообще неизвестно.

И это не получилось. И вероятно не получится

У кого не получилось? Я же говорю, иллюзию. У HPC получается, и они сейчас основной клиент GenZ. Понятно, что потери будут. Тут речь о том, что нам нужны такие машины, но решать проблемы работы с ними лучше не на уровне софта, а на уровне железа в таких протоколах как CXL и GenZ. Потому что в этом случае, мы, например, можем реализовать когерентность кэшей между процессорами в соседних рядах стоек и это будет на порядке эффективнее, чем пытаться это делать в софте.

Другая цель, это увеличить эффективность использования железа облачных провайдеров. Намного лучше, когда EC2 инстанс не приходится запихивать в одну машину и из-за этого соседняя машина, где не хватило 1 ядра свободного, будет простаивать, а можно собрать этот инстанс их двух машин и дать клиенту как одну единую виртуалку. Скорость будет приемлемая, все довольны.

Причём 6 см - это в вакууме, скорость распространения сигнала в меди около 2/3 от этого, в кремнии наверняка ещё меньше.

Скорость распространения сигнала в линии определяется не свойством проводников, а диэлектрической проницаемостью разделяющего их диэлектрика. Так что медь тут не при чем. Но в том, что эта скорость будет меньше скорости света в вакууме Вы правы.

диэлектрическая проницаемость оксида кремния- порядка 3,8. на чипах изоляция между дорогами в кремниевой пластине, вероятно, сделана именно из оксида кремния, и потому по эти дорожкам скорость распространения сигнала должна быть чуть больше 0.5*c.

Так то можно ещё вспомнить про то, что свойства длинных линий надо учитывать уже от 1/6 длины волны, и вот у нас уже вылезают расстояния в 7 миллиметров (6 см * 2/3 *1/6)...

Ещё нужно не забыть про то, что эти 6см провода имеют электрическую ёмкость, которую выходному каскаду логического элемента, подключенного к этому проводу, придётся перезаряжать. Элемент маленький, а провод большой, так что тормозить эта связка будет очень сильно.

Стоимость кремния ничто по сравнению со стоимостью нанесения >60 слоёв. Так же в стоимость закладываются литографические маски, которых тоже надо 60 штук и они не вечные. И чем крупнее тем дороже разумеется.

я думаю тут как раз имелся ввиду "кремний" после техпроцесса со всеми нанесенными слоями

Просто в моем понимании, TSMC или кому еще, грубо говоря (понятно, что машины наверное физически имеют пределы какие-то), все равно, какого размера кристалл вытравливать. Пластина все равно одна и таже. Но в этом случае брак будет огромный. Поэтому и получается, что чем меньше кристаллы, тем ниже будет их стоимость. В них может быть сколько угодно слоев, сколько угодно транзисторов, все это заложено наверное в стоимость, но в конечном итоге самое главное это сколько чипов с одной подложки будет годных.

Собственно, это подтверждается и такими вот таблицами https://pbs.twimg.com/media/EiFmaWJWsAE9M2v?format=jpg&name=medium Т.е. потребитель покупает, грубо говоря, пластины на определенном техпроцессе.

НЛО прилетело и опубликовало эту надпись здесь

В чипах все хуже. Там сигнал распространяется не напрямую через проводник, а через каскад транзисторов, на зарядку/рязрядку затворов которых нужно время. Сигнал, если так можно сказать, постоянно спотыкается.

НЛО прилетело и опубликовало эту надпись здесь

5нм уже в проде. 3 обещают.

Проблемы они чуть дальше. Текущие уже решили. Очень-очень дорого. Но решили. Масштабировать чтобы чипы стоили не больше чем все привыкли тоже получилось.

Кажется вы не понимаете о чем вам говорят. Если назвать техпроцесс 3нм, то фактически он таким не будет, и если назвать техпроцесс 0.001нм - соответственно тоже. Реальные размеры далеки от трех нанометров.

А что такое на самом деле?

TSMC говорит заказывайте на 5нм сделаем.

Самсунг говорит тоже самое.

Эппл уже сказал что сделал свой A14 на их фабриках на 5нм https://en.wikipedia.org/wiki/Apple_A14

Вы хотите сказать что все эти уважаемые компании врут?

Вы хотите сказать что все эти уважаемые компании врут?

да


вот цитата с википедии:


The term "5 nanometer" has no relation to any actual physical feature (such as gate length, metal pitch or gate pitch) of the transistors. It is a commercial or marketing term used by the chip fabrication industry to refer to a new, improved generation of silicon semiconductor chips in terms of increased transistor density (i.e. a higher degree of miniaturization), increased speed and reduced power consumption

У вас есть более хороший критерий измерения? Более правильный? Поделитесь. По скольки нанометровой технологии сделан A14 и почему? По вашей линейке.

Вот Apple устраивает эта линейка. TSMC тоже. Ваша линейка наверно чем-то гораздо лучше, раз вы считаете её более правильной. И наверно ей кто-то из больших ребят пользуется? Всем же нужны хорошие измерения.

Название техпроцесса != его техническая характеристика

А как вы предлагаете мерять техпроцессы по которым сделан тот или иной чип? Покажите вашу линейку.

Вот есть A14, есть Snapdragon X60, есть еще всякое где общепринятая линейка намеряла 5нм. Приложите свою линейку к этому и скажите что и почему у вас там получилось

Общепринятой мерилки нет, вам про это и говорят. Поэтому названия техпроцессов ничего особо не значат. Можете посмотреть на интел, как честно называть свои техпроцессы - убрать из названия какие-либо нанометры. Потому что плотность intel 7 и 7nm TSMC одинаковая, при этом intel 7 изначально назывался 10нм. Вы лучше задавайте вопрос интелу и тсмц, как они так намеряли своей "общепринятой линейкой", что у них разные нанометры одинаковую плотность дают.

Здесь ровно тажа самая ситуация, что с TDP. У всех вроде бы Ватты, а на самом деле мало чего значащие цифры, которые порой нельзя сравнивать даже между двумя поколениями процессоров одной компании. Уж разных компаний так подавно.

Общепринятой мерилки нет, вам про это и говорят.

Как это нет? А какой тогда Apple, TSMC, Qualcomm пользуются? Они выглядят достаточно большими ребятами чтобы назвать общеупотребительным то чем они все пользуются.

Можете посмотреть на интел

Интел до этого года был не очень. Это известно. Они только с последним поколением процов снова вошли в пантеон лучших.

И они честно говорят что у них 10нм. https://arstechnica.com/gadgets/2021/07/intels-foundry-roadmap-lays-out-the-post-nanometer-angstrom-era/ Не вижу проблем.

Вы лучше задавайте вопрос интелу и тсмц, как они так намеряли своей "общепринятой линейкой", что у них разные нанометры одинаковую плотность дают.

Для начала стоит разобраться с параметрами других линеек. И померить ими все современное.

Пусть их линейка плохая, но если другой нет то у меня нет выбора и я буду пользоваться их линейкой. И вам предлагаю поступить так же. Любой измерительный прибор лучше чем его отсутствие.

Есть смысл о чем-то говорить только если есть альтернативная линейка. А ее мне никто показать не хочет.

Как это нет? А какой тогда Apple, TSMC, Qualcomm пользуются?

Из этой тройки производит что-то только тсмц и посему пользуются его терминологией. То, что его терминология не соответствует таковой у других производителей, тому никак не мешает.

И они честно говорят что у них 10нм.

Именно, но плотность у них при этом равна 7нм тсмц, что и было причиной переименования техпроцесса в интел 7, чтобы цифры соответствовали. Тоже самое касается интел 4. Интелу надоело постоянно рассказывать точно так же мы здесь, что их 10нм на самом деле такие же хорошие, как 7нм тсмц, и все меряют нанометры по-разному. Людям нужны простые циферки.

Любой измерительный прибор лучше чем его отсутствие.

Согласен, но в данном случае измерительного прибора нет. В этом и проблема.

Есть смысл о чем-то говорить только если есть альтернативная линейка

Вы пока не показали ниодной линейки общепринятой, поэтому давайте уж вы покажите, где эта линейка наблюдается. Ни тсмц, ни интел, ни самсунг не пользуются единой линейной. Вы откуда-то ее вдруг выдумали и при этом сами же приводите ссылки, где приводятся аргументы, что этой линейки действительно нет.

Разговор имеет смысл только в ключе конечных продуктов, не имеет никакого значения на каких техпроцессах. Потому что мало того, что нм ничего не значат толком, так еще в рамках 7нм тсмц, например, есть несколько вариантов техпроцесса с оптимизацией под разные задачи.

Из этой тройки производит что-то только тсмц и посему пользуются его терминологией. То, что его терминология не соответствует таковой у других производителей, тому никак не мешает.

Хорошо. Добавлю Самсунг. Я не знаю даже фаблесс крупных производителей которые не пользуются этой терминологией. Подскажите кого-то кто на ваш взгляд правильно считает. Из крупных мировых.

Именно, но плотность у них при этом равна 7нм тсмц, что и было причиной переименования техпроцесса в интел 7, чтобы цифры соответствовали

Пусть переименовывают. Бизнес людям виднее как лучше презентовать чтобы денег побольше заработать.

Там где я работаю люди от бизнеса занимаются тем же самым с моей работой и меня даже это не волнует. Почему маркетинг далеких от меня фирм меня как-то волновать должен?

Вы пока не показали ниодной линейки общепринятой, поэтому давайте уж вы покажите, где эта линейка наблюдается. Ни тсмц, ни интел, ни самсунг не пользуются единой линейной. Вы откуда-то ее вдруг выдумали и при этом сами же приводите ссылки, где приводятся аргументы, что этой линейки действительно нет.

В смысле не пользуются? Производители чипов пишут размеры. По рынку они у всех бьются друг с другом и противоречий не видно. Вот то что написано на шильдике и будем считать верным измерением (марка на шильдике при этом должна быть приличной). Линейку по этому и проградуируем.

Сверяем с данными ASML. Мало ли, вдруг все сговорились и врут. https://www.azonano.com/article.aspx?ArticleID=5583 Совпадает. С кем еще сверить я не знаю.

Разговор имеет смысл только в ключе конечных продуктов, не имеет никакого значения на каких техпроцессах. Потому что мало того, что нм ничего не значат толком, так еще в рамках 7нм тсмц, например, есть несколько вариантов техпроцесса с оптимизацией под разные задачи.

Конечно. Вот есть A14, и M1. Конечные продукты. Приложите любую свою линейку и скажите что там получается. У Эппла 5нм получилось.

Приложите любую свою линейку и скажите что там получается

давайте наоборот, вы скажете куда нужно приложить линейку чтобы намерить 5 нм


По рынку они у всех бьются друг с другом и противоречий не видно

ой ли.
https://en.wikipedia.org/wiki/5_nm_process#5_nm_process_nodes
каждый понимает своё, как видим.

К википедии и любым сайтам лучших производителей чипов или оборудования для производства чипов. Везде 5 на свежем поколении намеряете.

PS: Линейки они разные бывают. Моя любимая это линейка силы землетрясений. И ведь хорошо работает. Не люблю аналогии, так что это просто отвлечение от темы. А какие линейки еще в мире бывают. Подозреваю что в мире есть еще более веселые линейки. Особенно в нетехнических сферах вроде социологий всяких.

цитату из википедии я вам как раз приводил, там английским по белому написано, что это исключительно маркетинговый термин. и табличка есть, из которой видно, что разные производители трактуют его сильно по-разному.

Да, и я попросил вас показать другую линейку. Я не говорю что эта лучшая из возможных, но если другой нет то будем пользоваться этой за неимением выбора.

Мы много лет измеряли массу в килограммах сравнивая ее со стандартным килограммом из палаты мер и весов. Буквально три года как перестали так делать. И ничего, всем удобно и хорошо было.

Да, и я попросил вас показать другую линейку

а вы по ссылкам ходили? там в табличке как раз есть возможные линейки: Transistor density, SRAM bit-cell size, Transistor gate pitch и т. п.


и да, там упоминается попытка создать общую для всех линейку — IRDS, и видно, что техпроцесс 5 нм tsmc не совсем укладывается в неё, а техпроцесс 5 нм samsung и вовсе 7 нм по этой линейке (хотя опять же по линейным размерам не укладывается и в 7 нанометров).


итого:


  1. все нанометры в названиях техпроцессов маркетинговые, честные названия были у микрометровых техпроцессов, цитата из русской википедии:
    Ранние техпроцессы, до стандартизации NTRS (National Technology Roadmap for Semiconductors) и ITRS, обозначались «xx мкм» (xx микрон), где xx сперва обозначало техническое разрешение литографического оборудования, затем стало обозначать длину затвора транзистора, полушаг линий металла (half pitch) и ширину линий металла.
  2. путём разных ухищрений получается увеличивать количество логических элементов на единицу площади быстрее, чем изменяются минимальные линейные размеры, именно этот прогресс и пытаются отобразить маркетинговые нанометры.
    но и тут мы видим привирания, например 16 нм у tsmc имели плотность 28.88 MTr/mm², при масштабировании до 5 нм мы должны были получить ≈300, а имеем ≈170;
  3. маркетинговые нанометры разных производителей не очень совместимы друг с другом, 5 нм samsung ≈ 7 нм tsmc ≈ 10 нм intel (с тех пор intel чтобы не отставать просто переименовал свой техпроцесс в 7), примерно как китайский XL обычно меньше американского L.

Я так понимаю, что проблема ведь в затворах?

Тут просто недавно была новость, что смогли уменьшить их размер, а с ними и размер транзисторов упасть должен

https://habr.com/ru/news/t/655393/

Не совсем. Большие процессоры это смена парадигмы. Это признание того, что мы не не можем увеличить скорость процессора, а не можем ее увеличить старыми способами. По этой причине последние несколько лет весь прогресс происходит в технологиях упаковки. Мы не можем больше пихать в один кристалл все подряд или бесконечно тащить за собой медленную память, находящуюся "в километре" от процессора. Все это давно начало меняться. Эпл здесь ровно укладывается в мейнстрим, следуя трендам.

> Мы не можем больше пихать в один кристалл все подряд или бесконечно тащить за собой медленную память, находящуюся «в километре» от процессора.

Запихнуть бы еще память под крышку, чтобы её нельзя было проапгрейдить или заменить, мечта продаванов одноразовых вещей, ага.

К сожалению, это на сегодня единственный способ фундаментально ускорить вычислительные системы, передвинуть память как можно ближе к логике. Не только ускорить, но еще и снизить энергопотребление. Продаваны здесь никаким местом.

К сожалению, это на сегодня единственный способ фундаментально ускорить вычислительные системы, передвинуть память как можно ближе к логике

ЕМНИП у m1 memory latency не лучше, чем у процессоров с «внешней» памятью

Динамическое ОЗУ — вещь достаточно медленная (по современным меркам). Максимально приблизив его к процессору мы можем минимизировать задержки в линии передачи, но на скорости записи/считывания собственно ячеек памяти это никак не скажется.

Не знаю, что там с латентностью (DDR она и в Африке DDR, ее задержки меньше не станут), а вот пропускная способность у них очень высокая. И не в последнюю очередь именно потому, что тащить такое количество линий намного проще, когда память рядом, а не на другой стороне материнки. DIMM интерфейс сейчас во многом является преградой прогресса. Он занимает слишком много места и медленный.

да, высокая.
но:


  1. у теж же эпиков сейчас 8 каналов памяти (и на zen4 обещают уже 12 каналов);
  2. не у всех задач локальность обращений к памяти хорошая, на большинстве я не вижу разницы в ipc между ryzen с 2 каналами памяти и epyc с 8.
  1. И эти каналы все равно в сумме медленнее М1. Плюс это существенно увеличивает стоимость плат и энергопотребление. Для устройств самих в себя как макбуки и прочее подход эпл наиболее выгодный.

  2. Зато она чрезвычайно высокая у ИИ и графических вычислений. Смотря на то, что практически весь процессор у эпл это сплошные ускорители, вполне понятно, зачем им такая шина, которую все эти ускорители делят между собой. Проблемы с шиной памяти это не мои слова, это беда всей индустрии, над которой сейчас бьются лучшие умы. Память наша главная проблема сейчас. Делать быструю логику все умеют.

первые ссылки из гугла:


One large feature of both chips is their much-increased memory bandwidth and interfaces – the M1 Pro features 256-bit LPDDR5 memory at 6400MT/s speeds, corresponding to 204GB/s bandwidth.

MEMORY BANDWIDTH: the AMD EPYC processor supports up to 21.3 GB/s per channel with DDR4-2667 x 8 channels (total 170.7 GB/s)

с поправкой на то, что современные epyc используют ddr4-3200, получаем паритет в «бумажной» пропускной способности.
у следующего эпика будет существенно больше (в полтора раза больше каналов и существенно выше частота), но, всё равно, с учётом разных сегментов рынка, цифры эппловского процессора впечатляют, конечно.

У M1 ultra эта цифра уже 800ГБ.

Цифры да, впечатляют, но тут все же надо учитывать, что М1 это не просто процессор. Если мы возьмем какой-нить SoC консольный, то там тоже цифры будут около 500ГБ. У топовых GPU вообще терабайты. Так что, это в общем-то не чудеса какие-то. Чем ближе память к процессору, тем проще сделать шину побольше. Как вот в случае HBM. Пока обычные процессоры будут тащить за собой сменные DIMM, им никак не угнаться будет. Давно назревает смена интерфейса. IBM вон пробует OMI и там цифры тоже существенно больше.

Вроде в современных Макбуках память и так не заменить легко. Следовательно большинство пользователей не добавляет и довольствуется чем есть.

А тут и до памяти под крышку один шаг.

Запихнуть бы еще память под крышку

С добрым утром! Она там и находится, под крышкой.
Я бы посмотрел как вы собрались подключать 16 каналов DDR5 DIMM чтобы обеспечить ПСП 800ГБ/c.

у нас и так под крышкой уже три таких "неапгрейдабельных" памяти- кэш L1/L2/L3, еще снаружи ОЗУ, SSD и HDD- в порядке падения скорости обмена данными. Ну введут они под крышку еще память- будет условный L4-кэш на 128ГБ, а ОЗУ превратится в memdisk.

L1/L2/L3 кэш напрямую в большинстве случаев не контролируется (потому и кэш). С точки зрения архитектуры приложений условный L4 и адресуемая ОЗУ под крышкой - огромная разница.

Смена парадигмы будет когда будут наращивать с обеих сторон подложки и научатся полноценные туннели сквозь подложку делать. А пока экстенсивный путь.

Чисто технически можно сфокусироваться на полноценной 3D технологии подобной SSD, а для улучшения отвода тепла заполнять все углубления каким-то теплопроводящим наполнителем. Вобщем, ждем когда 3D печать в микромире вытеснит литографию.

углубления каким-то теплопроводящим наполнителем

тепловые трубки? сейчас и так плотность теплового потока от процессора порядка 100Вт/см2- это уже предел возможностей теплоотвода- сам материал кремниевого чипа не может прокачать больше. любой "теплопроводящий наполнитель"- это все равно тепловое сопротивление- большое или малое- но ухудшающее передачу тепла от самого чипа к условному "холодильнику"- воздуху, прокачиваемому через радиатор, жидкости, прокачиваемой через СВО, элементу Пельтье или еще чему. Многослойная конструкция приведет к тому, что тепловыделение с единицы площади увеличится кратно, а теплоотвод- так же кратно ухудшится. Все это выглядит так, как будто мы добрались до пика S-кривой (улучшали теплоотвод, поднимали плотность компоновки, снижали тепловыделение, придумывали низковольтные транзисторы и оптимизировали режимы их работы и дошли до предела), и дальше улучшений почти не будет, хотя все так привыкли, что постоянно должны быть непрерывные скачкообразные улучшения.

Вы описали именно что дальнейшую эволюцию технологий упаковки. Переход от монолитных кристаллов в сторону все более распределенных архитектур, когда не просто память и логика на одном кристалле, а когда даже сама логика разбита по частям, вот это революция. Я не знаю, может быть это было давно кем-то опробовано как обычно, но в менйстриме, в области HPC этот подход произвел революцию именно сейчас. Маленькая, но все же.

Большие процессоры типа М1 — это начало конца. Признание того что мы не можем больше существенно увеличить скорость процессора.

Вы делаете неверный вывод. Увеличивать частоту процессора до десятков ГГц не надо — она ужЕ достаточна. Гораздо выгодней добавлять специальные узкозаточенные блоки — у них будет меньше потребление по сравнению с универсальным вычислителем, или распараллеливать вычисления по ядрам, посколько потребление растёт с увеличением частоты по экспоненте, т.е. два 3-ГГц ядра будут экономичней одного 6-ГГц, с учётом накладных расходов (более высокая частота кэша и т.д.). Поэтому М1 с кучей аппаратных блоков заметно энергоэффективней классических Core/Ryzen и им удалось минимизировать отставание от x86 своих более простых ARM-ядер.

Сильно упрощенно говоря это получится конгломервт процессоров специального назначения вместо "одного большого" процессора общего назначения. Для Apple, где все действия пользователя заранее предопределены, это приемлемо. Для компьютера же общего назначения - едва ли, потому что какие-то задачи будут действительно решаться эффективнее (например, декодирование популярных форматов видео отдельным аппаратным блоком), а какие-то будут спотыкаться о слабый процессор в отсутствие специализированного (со)процессора для конкретной задачи.

Это работает в обе стороны: не только производители процессоров добавляют блоки ускорителей, но и программисты оптимизируют свои программы под аппаратное ускорение имеющимися в процессоре блоками. Поэтому вероятность того, что какая-то программа будет спотыкаться на современном процессоре — близка к нулю. За исключением процессорных войн, когда ПО умышленно замедляют на процессорах какого-то производителя, или вообще замедляют какой-то вид вычислений (например, майнинг).

Да. Мы, программисты, это делаем. Делаем и плюёмся. Ненавидим весь мир, лечим психосоматических заболевания, и дальше пишем свой код под имеющиеся процессорные блоки, вспоминая благодатные времена, когда даже графика не имела специальных вычислительных блоков.

Уже достаточна - это как? 5Ггц всем хватает, никому +20% скорости универсального вычислителя уже не надо? Не знаю, откуда вы это взяли, но это явно не так. Закон Амдала говорит об ограничениях параллельности, задач для одного ядра - сколько угодно.

Про экспоненту можно ссылку? Звучит как заблуждение, иначе в телефонах были бы ядра на 1Ггц, а не 2.5.

А для какой задачи вам хотелось бы +20% производительности? Если это видео/редеринг/компиляция, то оно упирается в блоки ускорителей, а не в процессор. А остальные задачи, типа браузера, даже на 10...20% не грузят процессор.

Про экспоненту — посмотрите в любых обзорах разгона процессоров или видеокарт. При росте производительности на 10%, потребление увеличивается чуть ли не на треть. Например, Сравнивая верхнюю и нижнюю строчки, можно сказать, что 77% от уровня потребляемой мощности обеспечивает 90% производительности. Даже у маленьких процессоров, типа STM32F7, с ростом частоты заметен нелинейный рост потребляемого тока.

Однопоточные куски кода есть практически везде. Загрузка процессора на 10-20% очень часто и является симптомом однопоточного кода (одно ядро загружено, остальные нет). Иногда это IO, а не процессор, но не всегда.

Если интересен более конкретный пример, то питон однопоточный. Библиотеки на си или форк процессов позволит загрузить ядра, но не для всех алгоритмов это подходит.

Разгон - не совсем штатная работа. При штатной работе экспоненты нет, иначе серверные процессоры (где нередко важна энергоэффективность) выпускались бы с ядрами на 500 МГц.

А для какой задачи вам хотелось бы +20% производительности? Если это видео/редеринг/компиляция, то оно упирается в блоки ускорителей, а не в процессор.

Софтверный рендеринг (3D? видео?) сам по себе никакими акселераторами не ускорится, его нужно переписывать под акселераторы. Там даже алгоритмы будут другие. То что хорошо ложится на CPU, часто плохо для GPU и наоборот.

Как это по вашему должно работать? Типа берём какой-нить x264 и он вдруг на неведомой железке сам заработает с помощью магии Apple?

Про ускоритель компиляции — это было очень смешно.
Даже интересно, как вы представляете принцип работы этого ускорителя =)

А остальные задачи, типа браузера, даже на 10...20% не грузят процессор

Браузер, обычно, это чувствительная к латентности импульсная нагрузка — короткий пик, потом ожидание. Но в наше время в браузере может работать эмулятор или полноценный софт.

Если речь идёт о компиляции одного файла исходного кода, то ускоритель компиляции — это и есть ядро процессора :)

С другой стороны, если файлов много, и язык программирования позволяет, то можно их компилировать на многих ядрах сразу.

Там еще может быть проблема с выводами... Внутри элементы и проводники можно упаковать компактно, а когда их надо наружу выводить, то все усложняется... Автоматы "распаивающие" выводы от кристалла до корпуса процессора настолько точно позиционироваться не умеют...

Большие процессоры типа М1 - это начало конца. Признание того что мы не можем больше существенно увеличить скорость процессора

за счет чего по-вашему можно было бы "существенно увеличить скорость процессора"? Тактовая частота это ограничение по сути самого кремния, есть условно арсенид-галлиевые микросхемы, но там совершенно другие нанометры и процент брака. IPC тоже в основном наращивается за счет роста числа транзисторов - увеличение кешей, расширение конвеера, всякие векторизации и прочие новые инструкции.

на все случаи жизни аппаратных блоков не напасешься

Тезис по-бытовому убедительный, но, скорее всего, не совсем корректный. Ведь CPU (в смысле начиная прям от i4004/8086) по своей природе - это, по сути, всегда был сборник спец-блоков, исполняющих различные базовые операции (АЛУ/регистры/контролер памяти/конвейер/чтотамещёбывает). Просто теперь эти базовые операции формулируются в чуть более абстрактных и мощных категориях, но они всё ещё остаются базовыми и универсальными в построении алгоритмов (на соответствующем уровне абстрагирования). Раньше мы вместо битовых операций сразу использовали сумматоры ("акселераторы арифметики"), теперь будем вместо сумматоров использовать тензорные ядра ("акселераторы алгебры"), или какие-нибудь фильтры/индексаторы/ассоциаторы. Это всё не только специализация, но и абстракция. И наращивание этих абстракций с расширением решаемых на ЭВМ задач неизбежно.

деформации от нагрева

Сразу несколько факторов.
При прочих равных просто выгоднее - чем меньше процессор, тем меньше потребление энергии, проще охлаждать (нелинейно), больше получается чипов из одинаковой площади кристалла (а это тоже важно, производство очень дорогое).
Если же вопрос в том, почему для улучшения следующего поколения, условно, просто не делают процессор в 2 раза больше - так иногда делают, но это сильно увеличивает вероятность брака и, собственно, делает его в 2 раза дороже.

А какая собственно себестоимость производства процессора? Всегда считал что это доли процентов от рыночной цены.

Прочитал статью. Получается около 50 долларов за чип при заказе через посредников. Напрямую еще меньше, минимум в два раза, то есть порядка 25.
Apple берет за версию M1 Ultra на 1400$ долларов больше чем за версию m1 Max. При себестоимости в 25 долларов (по факту из-за масштабов производства еще меньше, но так как требуется обвязка, то будет чуть больше. Точно мы никогда не узнаем, но примерно 25), это меньше 2% от рыночной стоимости.
Ну не доли процентов, но вполне по рыночному.

Надёжность.

Спасибо, что хоть показывают

В России именно что только показывают =)

об этом и есть комментарий.
А могли бы не показывать — сначала трансляция была не доступна в россии)

Вопрос для людей в теме - как они делают алюминиевые корпуса? Я понимаю что они не стачивают здоровенную болванку, значит отливают некую заготовку и потом допиливают или как это выглядит? Вопрос вообще о всех корпусах, и ноутов и маков и айфонов. Каков принцип в целом?

Почему вы не задали себе этот вопрос, когда проходили мимо стеллажей с алюминиевой фольгой в любом супермаркете?))

Штамповкой.

Вы посыл не поняли. Тончайшая полоса металла, кмк, выглядит куда удивительнее ощутимо толстой коробочки из того же металла.

Для меня нет. Прокат металла в фольгу куда проще, чем фрезирование. Прокат и в кустарных условиях можно сделать получив фольгу.

А вот действительно магия, когда из куска алюминия выфрезировать, прожечь лазером дырки, отшлифовать и все это с огромной точностью.

Серьёзно???

Сделайте в кустарных условиях прокат толщиной в 20 микрон. А с фрезеровкой любой ЧПУ справится.

Представляю какой культурный шок вас ждёт, когда узнаете как линзы для объективов делают...

Вы не поверите, но в эпоху, когда магнитофонные головки любители делали «на коленке», фольгу для формирования рабочего магнитного зазора прокатывали в домашних условиях. И не 20 микрометров, а гораздо тоньше. За точные цифры ручаться не буду, но для хорошего результата необходим зазор порядка 3 мкм.

Каков размер головки? Пара квадратных сантиметров? А я про лист шириной 30 см и длиной в десятки метров.

Я лишь возразил о невозможности в кустарных условиях прокатать фольгу до толщины 20 мкм. Ни о размерах листа, ни о промышленных партиях я не говорил.

Хорошо. Допуски выдержите? Именно в 20. А не "расплющим как получится"

Именно что стачивают. Про макбуки есть даже рекламные ролики. Их вытачивают из цельного куска алюминия. Mac studio не исключение. Подозреваю, что так сделаны в целом все их продукты.

При массовом производстве можно стачивать здоровенную болванку. Стружка идет в переплавку, из нее делают следующую болванку.

А в чём смысл данных трудозатрат? Можно и из дамасской стали ведь делать - ещё "богаче" будет смотреться))

Смысл в прочностных характеристиках при малых габаритах.

Ну я о том же. Выбирать один из самых непрочных(!) металлов для того чтобы с форсом подвергать его механической обработке?

Для мобильной техники вес является весьма важным параметром, поэтому стальные корпуса будут проигрывать алюминиевым.
Не очень понятно, почему не используют магний — у него плотность еще меньше чем у алюминия и цена не дорогая для премиум устройств — около 4-5$ за килограмм.
Дополнение: оказывается тема материалов для корпуса детально разбиралась habr.com/en/company/asus/blog/229801

У титана плохая теплопроводность, хуже алюминия

А Вы пробовали проводить обработку резанием титановых сплавов?

Знакомый специалист по обработке резанием отзывался как о преотвратном материале. Специалист по сварке тоже, что характерно

Титан вообще очень неудобен для любых действий с ним. Трудно фрезеровать, трудно резать, трудно варить, про покраску можно забыть.

Но справедливости ради надо напомнит что у Apple был PowerBook g4 titanium , с корпусом из титана

У алюминия есть неоспоримое преимущество в виде оксидной пленки, которая очень стойкая и защищает корпус почти от любых воздействий, причем она образуется, условно говоря, сама. Магний нужно специально чем-то обрабатывать, иначе корпус быстро начнет разрушаться. К тому же, производство магния опаснее и сложнее алюминиевого - он очень активно окисляется и возгорается.

Магний используют, но реже чем алюминий в том числе из-за более сложной обработки.

Из актуального, Lenovo использует в Thinkpad T14s магний для нижней крышки и для многих других моделей как внутренний металлический каркас.

Магний химически крайне нестойкий. Как только протрется краска, он станет стремительно окисляться прямо на воздухе. Магний к тому же является опасным грузом, его запрещено перевозить авиатранспортом.
Магний химически крайне нестойкий. Как только протрется краска, он станет стремительно окисляться прямо на воздухе.
У меня в детстве кусок магния (или сплава, хз) от какого-то механизма, вероятно авиационного, много лет валялся, я с него стружку для пиротехники пилил. Кроме тонкой пленки на поверхности особо коррозии не замечал, хотя хранился он весьма небрежно. Да и стружка его прекрасно сохраняла «пиротехническую активность» при длительном хранении.
Когда воздух сухой и кусок валяется, его не лапают руками — магний «стоит» достаточно хорошо. А вот присутствие влаги, потожировых следов пальцев рук, дерева (забавно) магний переносит очень плохо и начинает «цвести». Антикоррозионные покрытия — лакокрасочные, стеклоэмалевые, боратирование, анодирование, хроматирование, химическое никелирование — эффективно предотвращают коррозию, но ровно до момента, когда это защитное покрытие протрется.
На фотоаппаратах такая коррозия довольно часто встречается. Но там она не есть большая проблема, так как магниевое шасси довольно массивно и дефект лишь косметический. А вот тонкостенные корпуса тонких ноутбуков могут и до дыр.

Ну типа штамповка не такт круто выглядит, тут лазер, фреза, красивое, "высокие технологии", дайте два - чистый маркетинг. А там "шлеп - и все", не круто.

штамп сложной формы- дорогое удовольствие (очень!). Потом в этот штамп вы засунете кусок металла, и он на крутых изгибах или тонких местах будет рваться, поэтому изгибы придется как-то сглаживать, а потом- дополнительно фрезеровывать, кроме того, отштампованную деталь придется сверлить под отверстия и нарезать на них резьбы. А раз даже после штампа нужно будет фрезеровать и сверлить- то теряется смысл штамповки- проще сразу фрезеровать и сверлить. Тем более, что 50 лет назад не было ЧПУ-станков с револьверной подачей инструмента, а сейчас- это обыденная и массовая продукция. экономика ЧПУ-фрезеровки кардинально изменилась- дешевле засунуть в фрезер плиту и получить на выходе готовую деталь со всеми тонкостями, чем городить линию по штамповке и обработке наштампованного. Кроме того, в фрезер я загружаю модель. Изменил модель- загрузил ее, и он через пять минут режет уже что-то новое, а штамп- одноразовый, и каждое изменение- новый штамп- в новые сроки и за новые деньги. дорого.

Потому что выглядит круто && зелёные пока бегают за владельцами дизельных пикапов.

Фрезеруют не болванку а заготовку, т.е. сначала отливают что-то похожее на корпус а потом доводят в размер.

НЛО прилетело и опубликовало эту надпись здесь

1) Алюминий и его сплавы достаточно "прочные" (особенно для бытовых условий) металлы, авиация, которая их 50 лет до композитов использовала, соврать не даст. "Прочный" в кавычках во избежание дискуссии о том, чем прочность отличается от твердости, пластичности и т.п., т.е. я говорю в сугубо бытовом смысле.

2) Сталь химически существенно менее стойкая, чем алюминий.

3) Сталь - ферромагнетик, что приведет к малопредсказуемым последствиям с точки зрения электромагнитной совместимости электронной начинки устройства.

4) Сталь - проводник, что снижает безопасность устройства и требует дополнительных мер по изоляции (покрасить, например), на алюминии же есть пленка Al2O3, который является довольно хорошим диэлектриком.

5) Алюминий более технологичен и легче обрабатывается.

PS: ну и да, плотность стали почти в 3 раза больше, чем у алюминия, разница в массе будет весьма ощутимой, если не сделать толщину профиля стального корпуса меньше.

Сталь - проводник … на алюминии же есть пленка Al2O3, который является довольно хорошим диэлектриком

Это в каком месте там диэлектрик? Если пользоваться обычными блоками питания без заземления - то на корпусе ощутимый потенциал. Понятно, что это не бесконтрольный пробой, но никакой изоляции снаружи так точно нет, ни созданной, ни естественной. Внутри изоляция от корпуса тоже вполне себе очевидная + лак на платах. Как это отличает от условно стального корпуса - я не вижу.

Я сделал себе шнурок с заземлением после того, как меня неплохо тряхнуло несколько раз, потому что ногой касался батареи отопления под столом. Так себе диэлектрик.

Замечу, что я сказал буквально:

на алюминии же есть пленка Al2O3

Т.е. здесь речь шла об алюминии самом по себе. Сплавы алюминия могут быть электропроводными (зависит от других металлов в сплаве), пассивирующей пленки на сплавах нет, из чего там шасси блока у вас сделано - понятия не имею, вряд ли там чистый алюминий.

Это в каком месте там диэлектрик?

В таком, что диэлектрическая проницаемость оксида алюминия около 10, что больше, чем у слюды (7-7.5), например, и электрическая прочность в районе 9кВ/мм. А слюда считается очень хорошим диэлектриком, если что. Или вы думаете, зачем алюминиевые проводники перед любыми операциями зачищают от пленки, и почему их флюсование при пайке существенно сложнее, чем с медью? Именно то, что сапфир (а это форма Al2O3, так же, как рубин или корунд), является очень хорошим диаэлектриком, помимо адгезии с кремнием, обуславливает то, что он используется как подложка для ПП кристаллов в технологии "кремний на сапфире", кстати.

алюминий сам по себе не конструкционный материал, из него корпуса не делают. Он очень мягкий. Используются именно сплавы алюминия (ваш пример про авиацию- это АМГ6, скорее всего- основной сплав для авиационной и космической техники). Д16Т много используют в корпусах. Но сути это не меняет- алюминиевые провода прекрасно проводят ток не взирая ни на какие оксидные пленки, и корпуса из АМГ, Д16, чистого алюминия и любых его сплавов даже после анодирования и создания толстой оксидной пленки все равно прекрасно "звонятся" и проводят ток через эту оксидную пленку лишь чуть-чуть хуже чистой бескислородной меди.

4) Тонковата плёночка. В масштабах корпуса в этом смысле алюминий мало чем от стали отличается. Шарахнет — мало не покажется.

даже толстая пленочка шарахает как чистый контакт.

теплопроводность ?

Был ролик от Эппла - алюминиевая плита и фрезеровка на специализированном чпу. Реклама эппла

При выпуске Афоней Пятых эппл показывала ролик, в котором сначала ЧПУшила детали корпусов, а потом- прецизионный измерительный центр выбирал из партий такие деталюшки, который идеально подходили друг к другу. Так что как минимум в пятом айфоне Эппл стачивала здоровенные болванки. Это не так уж и страшно, кстати, сточенный металл не выкидывается, а снова идет в переплавку и возвращается в оборот.

Ну больше, чем обычный процессор. Что тут такого. Видели намного больше:
462 см²!!! Вот это размерчик. Правда не для простых смертных…

Тогда в дополнение к вопросу в комментариях о размере процессора (SoC) возникает другой вопрос:

Как мы до жизни такой дошли, что нашему софту не хватет таких современных и прогрессивных технологий?

Все эти форки и виртуальные машины, песочницы и контейнеры... Верните мне мой web-1.0, где статичесике и динамические сайты на php/java и mysql со всем справлялись. Я тут представил, что будет, если просто откатить те же соц сети к виду середины нулевых, то что, мир канет в пропасть?

Нет, я понимаю сложные вычисления там ИИ всяких, big-data, но в остальном... Сколько аппаратных ресурсов тратится на обогрев комнаты. А, ну да, игровая индустрия конечно скакнула, - тут я тоже понимаю куда уходят ресурсы железа.

Однако основной вопрос, - про web-2.0. Что ты такое, и как мы тут оказались? Прокомментируйте это дело, плиз, кому не лень, в разрезе потребления аппаратных мощностей) Всю эту рекламу и сбор данных о пользователях нельзя реализовать на мощностях php/java/mysql версий середины нулевых, масштабируя, кешируя и локализируя серверные мощности?

Надо заставить программистов платить за электроэнергию, потребляемую их ПО.

Ну Вы уже решению проблемы подошли. Я же хотел бы понять для начала "состав преступления". Потому, что, мало ли, окажется, что Хром и Лисичка обоснованно жрет немеренно оперативы, а фб и вк не могут не быть такими не нагруженымы (слой на слое слоем погоняет)...

мало ли, окажется, что Хром и Лисичка обоснованно жрет немеренно оперативы

Хром — может быть, Лиса — точно нет.
Даже закрытие всех вкладок кроме свежеоткрытой about:blank не возвращает память ОС.


а фб и вк не могут не быть такими не нагруженымы (слой на слое слоем погоняет)...

Exterminate!

Где-то после 95 возвращает, а с 96 еще и стало выгружать вкладки при исчерпании памяти.

Я тут представил, что будет, если просто откатить те же соц сети к виду середины нулевых, то что, мир канет в пропасть?

Просто пользователи перераспределятся, и сервисы с рюшечками экономически победят сервисы без рюшечек. Опять.

О каких сервисах речь? ВК, условно, какой был в 2007 такой и остался - внешне. ФБ и Одноклассники то же самое.

Если мы говорим про интернет-магазины и их аппликации, то... В чем проблема, опять-таки? Есть база данных товаров. Сколько нужно ресурсов что бы UI передавал клиенту артикли из этой базы в рендер на экран монитора?

Или вот пример, посмотрите на этом скриншоте в приложение chess.com на андройд, в левом верхнем углу радом с иконкой моего автара есть иконку кубка с числом - это рюшечка ведет в раздел дивизиона, так называемой Лиги Шахмат (недавно введенной). Там отображается статус всех 50-ти участников девизиона. При нажатии на эту иконку, приложение 6 секунд рендерит слой отображения статистики. 6 гребанных секунд. Это как вообще? Что за такие виртуальные машины он грузит и в какие базы данных "НАТО" он лезет высасывать значения легионеров, чтобы так долго с этим справляться. Ведь по-сути своей, это можно реализовать отдельным набором быстрых CSS стилей и подргузить значения переменых из базы данных?...

Извините, что не под катом:

Результат:

так у ультры же гпу и цпу на одном чипе, плюс по-моему рам тоже. А райзен как я понимаю только цпу. Или я ошибаюсь? просто не особо шарю

Зарегистрируйтесь на Хабре , чтобы оставить комментарий

Другие новости

Истории