Комментарии 779
Эту статью следовало в политических изданиях публиковать, а не в технических.
Ситуация с ARM совсем другая. У него офигенно удобная для производителей модель лицензирования с очень невысокой стоимостью. И именно поэтому, процессоры на архитектуре ARM сейчас доминируют (по крайней мере в мобильном сегменте).
И ещё они лезут в серверный сегмент, предлагая меньший TDP, при сравнимой производительности (Amazon EC2). Также у ARM есть большой плюс для всех сегментов рынка, — отлаженные ОС, с многолетней историей.
Т.е. перенос софта на ARM с x86, — это вопрос поставки десктопов с ARM разработчикам. Apple делает именно этот шаг. Т.е. не для мобильных разработчиков, у которых это всё уже итак есть, а для десктопных. И закладтвает базу, для продвижения своей ОС вместе с «новой» (правильнее сказать проталкиваемой) аппаратной архитекутрой. Если ч-з 5 лет нёрды не будут хотеть убивать смузихлёбов за фразу «MacBook for gaming», это будет означать, что раскрутка от Apple удалась.
Вот вы говорите, что у Itanium отвратительна была цена/производительность?
Вот производительность в каких задачах вы брали? Ведь оный на момент своего выхода (начало 2000-х) это конкурент Alpha. Причем успешный, если все пользователи последнего перешли на Itanium.
Проблема была в том, что в самом массовом сегменте на тот момент доминировала x86-архитектура, команды которой транслировались в IA64 очень плохо, таким образом, выйти к широкому потребителю было нереально.
Intel стала заложником успешности своего детища с одной стороны и конкуренции с другой.
Оно не могло вложиться в новую архитектуру, т.к. новая архитектура это кап вложения для разработчиков, которые они не хотят делать. Это с одной стороны.
А с другой нету никакой возможности вложиться на полную в новую архитектуру, т.к. конкуренты готовы урвать свой кусок. И AMD это активно делала.
Во всей этой истории я до сих пор не понимаю почему они не дали ход своей видеоархитектуре, т.к. их интегрированная всегда была уровне.
Во всей этой истории я до сих пор не понимаю почему они не дали ход своей видеоархитектуре, т.к. их интегрированная всегда была уровне.
У них она была, но слишком наркоманская https://www.youtube.com/watch?v=um-1fAVU1OQ
Причем успешный, если все пользователи последнего перешли на Itanium.
Кормили сказочками.
Itanium был убыточным бизнесом для Интел вплоть до 2009г.
Забавно, что в том же году обанкротилась SGI, которая сделала ставку на Itanium.
bits.blogs.nytimes.com/2009/11/17/a-decade-later-intels-itanium-chip-makes-a-profit
не дали ход своей видеоархитектуре, т.к. их интегрированная всегда была уровне.
Быструю видяху у них только Apple и выклянчивал. Поэтому они кое-как выпустили Iris. Ну и сейчас пытаются что-то сделать с Xe. Но очень долго запрягают. Пока что кроме несчастного TGL и аналогичной ВК для десктопа у них нет ничего.
Причем успешный, если все пользователи последнего перешли на Itanium.
Кормили сказочками.
Itanium был убыточным бизнесом для Интел вплоть до 2009г.
Вы мешаете в кучу успех у потребителя и успех у производителя.
Для того чтобы выйти на безубыточность нужны большие объемы производства. До достижении этих объемов вполне можно выпускать продукт как убыточный, планируя отыграться потом.
Если этого не сделать — покупатели ни будут раскачивать объемы покупок. Это может сделать только производитель.
Мне довелось «потренироваться» в работе на титаник+OpenVMS. Это нечто! Дикое количество ключей оптимизации, при этом практически никогда не удавалось достичь желаемой производительности. В общем титаник своё дело сделал. Утащил на дно OpenVMS и Alpha.
Я не про производительность. А про цена/производительность. Бизнес считает деньги. А потом Oracle выпускает Exadata на х86, и хоронит супердома окнчательно, прекратив разработку ПО для Itanium в 2011, после заявления Intel о EOL Itanium.
Всё, — платформа мертва. Интел прекратил заниматься фигнёй избавившись от убыточного производства. HP не создал массового рынка для Itanium и не занял значительной ниши в Enterprise. HP-UX имел просто отвратительную поддержку в плане свежего ПО. HP не стермился создавать массовый продукт, он не создавал массовую экосистему, как это делали Intel&MS, и Intel&IBM&RedHat и куча других включая Google.
Itanium изначально был маргинальной системой, не оправдывающей своей цены.
А про цена/производительность.
Один из параметров ясен (цена), а второй?
А потом Oracle выпускает Exadata на х86, и хоронит супердома окнчательно, прекратив разработку ПО для Itanium в 2011, после заявления Intel о EOL Itanium.
Всё, — платформа мертва. Интел прекратил заниматься фигнёй избавившись от убыточного производства. HP не создал массового рынка для Itanium и не занял значительной ниши в Enterprise. HP-UX имел просто отвратительную поддержку в плане свежего ПО. HP не стермился создавать массовый продукт, он не создавал массовую экосистему, как это делали Intel&MS, и Intel&IBM&RedHat и куча других включая Google.
Я никак не пойму, как это обосновывает утверждение, про соотношение цена\производительность в 2001 году…
Один из параметров ясен (цена), а второй?
п р о и з в о д и т е л ь н о с т ь
spec.org, tcp.org
Я никак не пойму, как это обосновывает утверждение, про соотношение цена\производительность в 2001 году…
Создав дорогой процессор, удешивить который не смогла, и параметр цена/производительность вытянуть на уровень не смогла. HP не смогла создать рынка (внутри куча факторов, читайте пост выше).
Если ещё что-то не понятно, спрашивайте.
Ну, ок, будем тыкать носом.
Серьёзно? Сравниваете Alpha на 1150MHz с Itanium на 1500MHz? Ну ок.
Почему не сравнить с тем, что не умерло?
2007-й год SunFire X4100
98,857 QphH, 2.65 USD per QphH
www.tpc.org/tpch/results/tpch_result_detail5.asp?id=107102901
2008-й год HP Integrity Superdome
63,650 QphH, 38.54 USD per QphH
www.tpc.org/tpch/results/tpch_result_detail5.asp?id=108022701
www.tpc.org/tpch/results/tpch_result_detail5.asp?id=109090801
2009 HP ProLiant DL380 G6
51,085 QphH, 1.09 USD per QphH
Вы думаете Oracle, Exadata на х86-х запустила и линейку SuperCluster просто так похоронила, хотя SuperCluster на SPARC-ах в TPC-C например лидером был? Нет, не просто так, топ производительность за больше деньги никому не нужна. Нужна за разумнеы деньги.
Сравниваете Alpha на 1150MHz с Itanium на 1500MHz? Ну ок.
Сравниваю два конкурента на момент выхода. А разницу в тактовых частотах Opteron в то время неплохо нивелировал.
2007-й год
Itanium вышел в 2001, Itanium 2 в 2002. Тогда же были и планы выхода на широкий рынок. Однако этого не произошло, т.к. x86 плохо выполнялся, а доп. козырь в виде 64-битной архитектуры успешно выбил AMD.
И отжимал со страшной силой долю, вплоть до 2006 года, т.е. до выхода Core 2. И в 2007 году вы сравнивать архитектуру в которую в течении 5 лет вкладывались деньги и проц, финансировавшийся по остаточному принципу, а потом делать вывод о том что его сгубило…
Про Exadata и SuperCluster не моя тема. Но Гугл говорит, что Oracle запустил Exadata в 2008 и сразу на x86, а SPARC-и им достались от Sun, которую они поглотили в 2009-2010 годах. А SuperCluster похоронен в 2019 году.
И опять же, для БД, на которые вы упираете, важен не сколько параллелизм (а это главная фишка Itanium), сколько размер кэша и скорость доступа к оперативке.
Все остальное значения не имеет.
Ваша демагогия, и припысывание мне, не изречённых мною слов, также значения не имеет. Ключевой показатель всегда будет цена/производительность, который напрямую влияет на возможность создания массового рынка.
Возможно, это и сложно с точки зрения разработки, но сложнее ли это того, чтобы медленно и мучительно пытаться перестраивать самолёт из старого кукурузника в аэробус прямо на лету?
en.wikipedia.org/wiki/List_of_x86_manufacturers
Это будет что-то уровня Pentium-M в лучшем случае… Rosetta быстрее.
И имхо, переход на арм это конечно важный шаг для эппл, более того, уверен, за эппл последует и майкрософт, сделав нормальную вин 10 для арм, но это не говорит о том, что интел обречена. У них много денег, опыта, тысячи специалистов своего дела и только их решения покажут, насколько интел готова к будущему. Несомненно арм отжимает солидный кусок рынка настольных ПК, но это нормально вполне и происходит уже не первый год
Я не считаю ARM новейшей технологией, и чуть ниже написал, что хорошо бы, если б кто-нибудь (например, Intel) сделал абсолютно новый процессор.
у интел тоже самое, но арм не тащит на себе легаси, ну, или не заставляет.
Во-первых, x86 по такому подходу из 70-х: 8008, следы совместимости с которым тянутся, это 1972, 8080, уже с которым очевидно для любого — 1974. ARM — начиная от 1983, ближе к 1985, ну а ARM/64 (в котором выкинули кучу старья) это уже 2011.
Во-вторых, ключевое тут то, что в ARM меняли архитектуру с откидыванием старья, а в x86 — нет. В 64-битном режиме продолжают быть доступными, например, бесполезные команды типа rcl, rcr, xchg продолжает сохранять лок, продолжается дурь с OF и PF, не удлинены нафиг не нужные однобайтовые in/out, cmc, hlt, in/out и т.п., зато VEX занимает по 4 байта… там полный комплект будет с полсотни таких ляпов. И нельзя винить AMD — они как раз когда изобретали архитектуру amd64, были нищими… но Intel строил миражи на песке из IA64 и игнорировал эти попытки.
В результате, победа ARM сейчас ближе к вопросу времени — повторить те наработки по десктопу, что уже есть у Intel.
В этом плане ARM лучше уже хотя бы тем, что предоставляет большее число регистров общего назначения, что в свою очередь даёт большие возможности для автоматической оптимизации. Намного большие, чем крайне редко используемые оптимизированные команды из расширенного набора инструкций.
Однако, я говорил не только и даже не столько об ARM, сколько о новой современной архитектуре. Так сказать, начать жизнь с чистого листа. Но, наверное, и ARM сойдёт.
модемы не смогли вытащить. и ещё что-то недавно продали.
Главный ресурс Intel — это как раз R&D. Которые могут любое говно вытащить.
До сих пор их главный ресурс — имя и продажники.
R&D как-то уже не смотрится, если он ограничен x86. Начиная со Skylake прирост со следующими поколениями ничтожен.
И всё это решается внедрением нативных ядер (грубо говоря, плюс один контакт, напряжение на котором определит на каком ядре этот проц будет работать со старта).
Вплоть до уровня 486-Пентиума: патентная защита закончилась или заканчиваеться (25 лет на железо, есть еще авторское книжное право, но можеш обозвать команды по своему или ссылаться на добросовестное использование). Можешь производить или эмулировать архитектуру, другое дело кому такой уровень сейчас нужен.
В США -25 лет.Срок действия патента зависит от страны патентования, объекта патентования и составляет от 5 до 35 лет (ГК РФ Статья 1363, ГК РФ Статья 1424).
Вот, например, вроде связанно с FMA: patents.google.com/patent/US8745119B2
1995-08-31 Priority to US08/522,067
2015-08-31 Anticipated expiration
Суды США разрешили продлевать до 5 лет срок действия патента- в случае засекречивание патента, обоснование окупаемости разработок по технологии патента и в случае дополнения или усовершенствования патента. В общем из-за патентных троллей непонятная ситуация, поэтому юристы перестраховываються и рекомендуют исходить из срока 25 лет, если только сам патентообладатель не заявил что срок истек или предоставил в публичную собственность
Ладно, если вам ну НАСТОЛЬКО необходимо прямо и досконально разжёвывать — я хотел сказать, что Intel потенцитально мог бы направить усилия своего R&D департамента на создание совершенно новой архитектуры (вероятно RISC), с парой ядер на архитектуре х86, на платформе IBM PC, всё равно у них уже давно только свои чипсеты. И в итоге получить одновременно и обратную совместимость, и резкий рост производительности (за счёт новой архитектуры). Из минусов — только то, что это не оба сразу, либо обратная совместимость с так себе производительностью, либо отличная производительность без обратной совместимости. Но поскольку у Intel более чем достаточное влияние на рынок настольных ПК, они вполне могли бы задвинуть новый стандарт и лет за пять-десять производительность в режиме обратной совместимости не требовалась бы вообще, а весь новый софт писался бы под новую архитектуру.
И да, я знаю про Itanium и их неудачный опыт. Но вот чего не хватало Itanium — так это как раз обратной совместимости. Нельзя просто так взять и забросить новую архитектуру, отдав обратную совместимость в руки только программистам. И вот как раз поэтому я и говорю о том, чтобы выделить отдельные полноценные x86 ядра под обратную совместимость, чтобы они работали отлично, но их всего-лишь было не так много, как в топовых процессорах.
Т.е. не для мобильных разработчиков, у которых это всё уже итак есть, а для десктопных.
Мобильные разработчики сейчас пользуются для отладки эмуляторами (включая владельцев MacBook, к слову). Разве нет?
Или для любого другого десктопа на ARM под Linux?
Уверен, что большинство разработчиков тестируют ПО именно на QEMU, иначе Debian не смог бы выйти на aarch64 уже в конце 2014 ввиду отсутствия железа и дороговизны плат разработки в то время.
Почему Linux не завоевал десктоп? Потому, что игры для него пишут в 100 раз реже чем для Win и консолей. Все отговорки про «линукс сложен для домохозяек», — бред. Эта сложность скрывается без проблем при вкладывании бабла (и в разработку и в маркетинг), как это было сделано с Android. Это как раз и есть создание рынка. Для десктопов на Linux, никто не создаёт рынка, и если пытаются, то мелковато, и рынка выстроить не в состоянии.
Игры это просто пример. Возможность делать массовый продукт вот, что важно.
Почему Chrombooks до сих пор существуют на ARM? Потому, что есть рынок. Который создал Google. Скрыв сложность Linux от домохозяек. Google в это вложился и создал рынок. Теперь тоже самое делает Apple. Причём пока в той-же нише примерно.
Массового универсального десктопа на ARM, не существует. Его нужно создавать, создавая рынок.
Почему Linux не завоевал десктоп? Потому, что игры для него пишут в 100 раз реже чем для Win и консолей.
Смотрю на свою библиотеку в Стиме и не согласен. Примерно четверть игр портированы на Linux. Спасибо дядюшке Гейбу, еще столько же запускает Протон.
Так для ублажать хайпожоров есть консоли.
А на ПК до выхода первого/второго сервиспака SeasonPass заядлые геймеры как раз и не смотрят — там еще в Discples II и HoMM III не все переиграно.
но ведь компы станут мощнее через год
То есть, у этого автоматически пропишется в системнике Ryzen 6950X, а то и целый TR X990 и парочка 4090? )
Топовое доступное на рынке к массовому отношения не имеет.
и по той же стоимости что немаловажно
Смотрит на цену 2077 в steam и psstore
Ню-ню. Консоли — это, прежде всего, сервис и унифицированная программно-аппаратная среда, т.е. отсутствие типичных софтовых заморочек.
Плюс на старые игры цена со временем уменьшается (издатели снижают «полный ценник»), а когда появляется скидка 85%, то это просто улёт.
К этому добавляем всякие humble bundle ($12 за месячную подписку с 6 играми на выбор из 24), оттуда же берём игры по $1, и так далее.
У меня в Стиме три аккаунта разных стран, поверьте мне, я знаю, о чём говорю.
Даже в США можно достаточно дешёво покупать игры. Если не гоняться за хайповыми тайтлами. А в этом помогают вышеупомянутые HoMM 3 и Disciples 2.
Я могу либо пиратить, либо покупать игры, недоступные в моём регионе, на американский аккаунт. Предпочитаю второе.
Обычно американцы и европейцы заводят аккаунты развивающихся стран ради экономии, у меня американский аккаунт не ради экономии.
Конкретно за Стим не скажу, но в некоторых сервисах мне поддержка рекомендовала заводить аккаунты для разных стран, как стандартный способ разруливания ситуации "гражданин одной страны и резидент другой страны"
для меня, как геймера ничего не изменилось за годы. как держал две оси (работа и вин для игр) так и держу. я не особо разбираюсь, но такое ощущение что протон надо под каждую игру допиливать, иначе я не понимаю почему до сих пор тонны игр (не ааа, а инди ) на нем не работают. имхо такими темпами ничего не измениться на рынке игр для линуксов, т.к. среднего геймера не устроит ни 25 ни 50%
Одно слово: Intanium. Его похоронила отсутствие должной совместимости с x86
Нет, Itanium похоронила дороговизна и отвратительная цена/производительность с очень узким рынком. HP его заказал, HP его похоронил.
При эмуляции x86 только.
В нативном режим Itanium себя хорошо показал.
HP его заказал, HP его похоронил.
Враньё.
HP судилась с Интел чтобы Интел продолжала выпускать Itanium. Интел не смогла написать хороший компилятор для него.
Если бы AMD не сделала AMD64, то сидели бы на Итаниумах щас.
Ситуация с ARM совсем другая. У него офигенно удобная для производителей модель лицензирования с очень невысокой стоимостью.
После покупки ARM Нвидией и разрушением Трампом свободного рынка этот ARM стал нафиг никому не нужен. Переходят на RISC-V или OpenPOWER.
Яблоко влило денег в продвижение своего проца, и
Серверные ARM много кто делает, пока не преуспели особо.
этот ARM стал нафиг никому не нужен.вряд ли инициатива эппла с ARM провалится, их маркетинговая машина всему миру объяснит, что MacBook на ARM предел мечтаний любого человека. Так что ARM будет очень даже нужен ;)
Ну вот после анонсов и обзоров М1 я в первый раз серьёзно задумался о покупки Air, а то не читал, но осуждаю. )
P.S. У меня вот вообще два ноута, и все живут от розетки. Всегда. А мобильным является телефон или планшет. Ну и там да, ARM, в телефонах-то.
Поэтому у меня все ноутбуки живут не меньше 6 часов от батареи, это одно из обязательных требований при выборе и покупке.
20 часов — очень круто. Это когда утром туда, днём там, вечером обратно. Всё это на самолётах / поездах. Грубо говоря — гарантированные сутки работы (с перерывом на сон) в реальных условиях.
Ну т.е. я согласен, что 20 это круто — но это практически предел. Я бы даже сказал, что предел это 24-8 на сон, или еще меньше. И больше никому практически не нужно. И да, работать 16 часов вредно, это я вам уверенно говорю.
В реальности там будет включен wi-fi, будет работать IDE, например PyCharm, который при каждом допечатывании условного класса или объекта нагружает проц под 100% (пилорамная нагрузка, вверх-вниз), браузер (о прожорливости JS кода не говорит только ленивый), что-то там еще. То есть реально время работы будет меньше. Причём, я думаю, минимум на треть.
И потом, я не работаю 16 часов, я могу на движухе быть 16 часов, а это не работа, это развлечение (раз в месяц-два). Наконец, ну сидишь в аэропорту, в самолёте или в поезде, делать нечего. Достаёшь лэптоп и фигачишь.
К примеру, написал систему деплоймента средней руки проекта именно в аэропорту. Ну получилось так, нахлынуло вдохновение.
В другой раз летал — написал торгового бота.
И потом, я изложил свой сценарий, он вполне типичный — многие ноут вместо настольной машинки держат только ради того, чтобы перенести от одного стола с розеткой до другого. Иногда — выйти в переговорку (где тоже есть розетки и экран). В моем окружении это практически все. Я не говорю что это все — но таких много.
если бы я в молодости не работал по 12 часов, я бы сегодня возможно был более здоровым, чем есть
Не в качестве спора или наезда.
Не такой уж молодой и с детства не здоровый, 3 работы, 14-16 часов в сутки только где-то на работе не считая дороги и 6,5 дней в неделю…
А что делать, если зарплаты с этих 3 работ едва дотянули до половины средней по области? Что на одну не проживёшь, а уехать — нормально оплачиваемую работу не смог найти
предлагаю воспользоваться моментом и найти удаленную работу (пока бушует пандемия, даже банки вынуждены держать бОльшую часть айти сотрудников на удаленке).
Сейчас даже ручным тестировщикам-джуниорам платят вполне достойно. Если вдруг не вы не админ и не умеете программировать.
P.S.: я почти так и сделал. Осуществил давнюю мечту — найти работу в другом городе без переезда.
Не здоровый? Гагарин по сравнению с вами овощ на искусственном дыхании. Вы вообще спите? При таком здоровье вам прямая дорога на олимпийские игры — все медали соберёте.
> А что делать, если зарплаты с этих 3 работ едва дотянули до половины средней по области?
С такой работоспособностью минимум в Москву можно ехать чисто на авось автостопом без гроша в кармане. Что за область и что за работы хоть?
А дворник может аж в трёх местах работать, «и в министерстве на счету, и в Академии считаются!»(с)
недавно заменял сторожа — днём сидишь админом, ночью спишь сторожем, опять днём админом… Но почему-то устаёшь будто работал физически. То есть ночью отдыхать не получается.
А зарплата раньше была на 1 тыр больше, чем вышенаписанное "днём админом", сейчас она заметно меньше. Ну и оно "сторож-истопник-дворник_у_здания"
нельзя. Им платят столько же (сколько инженерам, эникейщикам и "почти админам"), но при этом вакансий дворника давно нет, заняли пенсионеры.
день техником-админом, 2-4 часа на прежней работе эникейщиком и до 22-23ч у знакомого на мебели, где на данный момент из постоянных работников остался я один (кто болеет, кто уехал домой в другой город...)
И кстати да — удаленка. По нынешним реалиям все почти ее предлагают. За последние пару месяцев мне приходило штук пять предложений пообщаться, и пару раз удаленку предложили с ходу, даже не спрашивая меня.
С другой стороны, так зарядка мастхэв, как ключи. А когда её раз в месяц только нужно использовать, то наверняка понадобится когда рядом не будет.
На фоне 4,5кг ноутбука и 1 кг сумки я пренебрегаю
У меня настольный ПК в сборе легче, всего 3 килограмма :)
Core i7-4770 4C/8T 3.4 (3.9), 16GB, GTX 1050 Ti, 2*2,5 SSD в алюминиевом корпусе и с блоком питания на борту (правда, поскольку я начал до Steam Machines, то корпус делал под более распространенные тогда PSU TFX, а жизнь показала, что надо было под PSU SFX делать).
Размер 300*250*90, объем 7 литров.
Учитывая, что с первого дня жизни этого проекта я сменил 5 городов, то мне кажется, что идея была выигрышной.
Хотя бы потому, что высокая автономность многим нафиг не сдалась.Да ну?
У меня вот вообще два ноута, и все живут от розетки. Всегда.Железная аргументация! Мы, наше царское величество, властью, данной нам Богом, заявляем: автономность ноутбукам не нужна.
Все равно ведь в лес его на неделю не возьмешьБандура 14" стоимостью over 1k$ в лесу действительно не нужна. Такие машинки обычно едут с хозяином в автомобиле и носятся в дипломате или специальной сумке. Хотя, у кого-то бывает ещё такой кейс — научная экспедиция в труднодоступные места, куда можно разве что заброситься вертолётом.
Ну вот зачем вам ноут с работой от батарейки 20 часов?Чтобы заряжать его также часто, как и смартфон — раз в 2-3 дня. Аккум дольше проживёт. И начнёт умирать уже тогда, когда сам ноут морально устареет.
Т.е. есть некий лимит автономности, выше которого уже бессмысленно ее наращивать.Вот силюсь всё себе представить, где ж этот самый лимит есть. Вот были бы ноутбуки, которые могли бы работать неделю — тогда их можно было бы смело брать в отпуск, и не переживать, что в гостиницу не завезли розеток нужного вида, напряжения и частоты. Лимит автономности в настоящее время диктуется исключительно массой и размерами АКБ, а никак не длительностью работы.
Не ради автнономности, у меня тоже ноут живёт от розетки всегда, если не забыл включить придя в офис или домой. Тут именно поиграться хочется ) Технически интересная штука получилась, кажется, если получится линукс и/или докер завести
А вы что, реально верите тестам? Я думаю как раз это чистый маркетинг. Ну не на 100% конечно, но точно не без этого.
Ну и потом, мне вот нужно обновить машинку. Что вы думаете я буду ставить в первую очередь? Память до 64Гб.
Хотя я заранее согласен, что такие люди, кто рассматривает покупку HP ZBook — они меньшинство.
И если нет привязке к платформе, то зачем за худшее переплачивать.
По поводу тестов. Эти тесты кто только уже не выкладывает. Люди компы уже с 16 числа вроде бы получают. Так что тестам верю.
А в общем, тоже удивляюсь.
Я был бы рад ПСИе карте с армом или рискомЯ бы тоже. Сам удивляюсь, почему до сих пор никто не сделал arm-овый одноплатник в виде PCIe-карты. Не промышленный компьютер, который вставляется в пассивную материнку, а такой, чтобы можно было вставлять в обычный десктоп или сервер, чтобы она была видна как ethernet-адаптер. Конечно, в ней должно быть 2 ethernet: один был бы разведён на PCIe-bridge, другой — наружу, на разъём. Разработчикам на такой компьютер в виде PCIe-карты удобно было бы заливать и сразу тестировать софт, а обычный пользователь мог бы разместить там ноды для Tor и прочих скрытосетей, DNSCrypt-клиент, VPN-клиент. А ещё из таких карт можно было бы собрать кластер для какой-нибудь студенческой лаборатории.
обычный пользователь мог бы разместить там ноды для Tor и прочих скрытосетей, DNSCrypt-клиент, VPN-клиент.
Это НЕ обычный пользователь.
Ну и прикиньте, сколько надо вложить денег, и сколько потом продать устройств, чтобы получить прибыль.
Были геймерские карты с подобным функционалом — не пошло.
Но в целом, вы описали функции типичного роутера. Так почему бы его и не взять?
en.wikipedia.org/wiki/SunPCi
Это слишком темная история.Это был типа совместный проект.Зачем менеджеры НР похоронили свой успешный процессор не понятно.(ходят слухи про утечку инфы о переговорах Бабаяна с SUN) Да они отставали по частотам про сравнению с тем же Alpha.Но был очень экономный процессор, у них при хорошей производительности кэша 2 уравня долго не было, только в последних перед закрытием появились.А так был лидером по командам за такт-до 6 шт с арифметикой!
Но! Они сделали маленький шаг для человека и огромный для человечества. Они показали и продолжат показывать что ARM может конкурировать с x86 в сегменте десктопов. Как обычно, такое уже пытались сделать, вспомним робкие попытки Qualcomm, с ноутбуками на снапах, но ничего не вышло.
А у Apple выйдет (но это не точно).
В итоге будет как обычно, Apple сделала, остальные рванули за ней.
Рынок десктопов наводнят производители ARM и Intel (И AMD) придётся уже не вяло пихать друг друга, а полноценно конкурировать с огромной кодлой ARM производителей. Что, скорее всего, похоронит Intel и, с чуть меньшей вероятностью, AMD. Всё же они более динамично развиваются.
Так что, как бы я не любил технику Apple, именно их действия, зачастую, двигают рынок.
Сделать Not So Long Instruction Word. Насколько я понимаю, именно с шириной VLIW был допущен просчет, что потом компилятор не мог наполнять бандлы командами. При этом остальные идеи в IA-64 весьма ценны и их жаль в стол хоронить.
укоротить бандл команд
Там и так 3 инструкции максимум. Куда уж ещё укорачивать?
При этом остальные идеи в IA-64 весьма ценны и их жаль в стол хоронить.
В современных реалиях эти идеи гроша ломаного не стоят.
Предел возможностей Itanium это линейные циклы с вращением регистров
Может у Itaniumа есть еще шанс, например если ему укоротить бандл команд?
У него нет шансов, пока из-за тормозов DRAM получается, что из L1 получить данное это 1-2 такта, а из DRAM — до 200 (иногда и больше). Эта неровность убивает любое пред-планирование команд.
Хотя можно, конечно, комплектовать SRAMʼом. Для некоторых задач и 10-15-кратное удорожание оперативной памяти вполне сойдёт… там и кэш будет не нужен...
Насколько я понимаю, именно с шириной VLIW был допущен просчет, что потом компилятор не мог наполнять бандлы командами.
Дело не в ширине, дело в том, что оно explicitly parallel instruction computing.
При этом остальные идеи в IA-64 весьма ценны и их жаль в стол хоронить.
Это какие же?
Intel действительно упоролись своим положением собаки на сене. X86 обратная совместимость это здорово
Разве у ARM нет обратной совместимости?
Intel должен бояться не Apple, а как раз Nvidia: именно они сосредоточили у себя разработку и cpu и gpgpu.
Самое смешное, что я в 2007 году лично слышал от маркетинговой шишки Интел рассказ о том, что будущее за носимым компьютером/телефоном и что это будет главный рынок. Забавно, что, все понимая, эти этот рынок проспали.
Они пытались не проспать: были смартфоны на Атомах. Кстати, процессоры по тем меркам были весьма неплохие, на них даже флагманские устройства делалась (Lenovo K900, например). А потом… Ну, это уж нам неведомо.
hitech.tomsk.ru/2006/09/29/idf_fall06_intel_demonstriruet_80jadernyjj_processor_s_proizvoditelnostju_v_1_teraflop.html
www.ixbt.com/news/hard/index.shtml?07/75/60
Я помню, как облизывался на nVidia Shield Portable (Console). Но в результате вместо того, чтобы купить классную штуку, купил доллары (не прогадал).
Не поймите меня неправильно, но это как-то не пахнет массовой революцией. Скорее — нишевым рынком. Я знаю одного человека со Свитчем, и десятка два — с айфонами.
В 720p всё-таки.
И 65 миллионов проданных устройств — это немаленький такой «нишевый» рынок.
www.eurogamer.net/articles/digitalfoundry-2018-switch-mobile-mode-analysed-in-unprecedented-detail
И там числа еще ниже называются. От 360p и далее 432p, 480p, 540p, в зависимости от игр и сцен… Динамическое разрешение, оно такое.
Про проц ничего плохого не скажу, а 1 ГБ ОЗУ было маловато.
Понятное дело смартфон, планшет и ноутбук это удобно, но они не сравнятся с десктопом.
Вот не понимаю, почему не сравнятся? Что позволяет десктоп, чего не позволяет смартфон с тем же набором периферии? Я сейчас не про производительность, если что.
А во-вторых, x86 позволяет достаточно легко поставить любую ОС, тогда как для носимых устройств это не всегда возможно в принципе. Конечно, для большинства пользователей это не важно, но, например, для меня — один из основных критириев при выборе устройства.)
Snapdragon 636, 4 ГБ ОЗУ.
П.С. При свободной памяти вообще не подвисает, а если активно махать рукой то и комментарии пролистываются быстро. Памяти отжирает порядка 700 МБ.
И кому оно надо больше памяти процессоров чтобы просто было? Единицам. Половина населения земли в интернете сидит почти только с телефона.
Вообще, если отвлечься и подумать, то удивительно такое слышать в 2020 году, когда все уже просто носятся с утверждением что будущее, оно за числодпробилками: обработка биг дата, распознавания, ML/DL, генерация видеопотока с высокми битрейтом и кодеки к нему, дедупликация данных на ZFS RAID и т.п., смарт-контракты на blockchain и куча всего. А 6 млр хомяков со смартом в кармане будут потреблять ровно то, что для них сделают. Все эти фуфелы с постами в фейсбук из серии «Crowd Sourcing» — не они будут задавать тренды или генерить новую НТР.
В конце-концов, на чем создавать обещанный голивудом скайнет?
Я сейчас не про производительность, если что.
А можно и про неё. Флагманские модели значительно обгоняют всякие там нижнесегментные офисные машинки. Причём даже флагманы прошлых лет.
Но да, если прикрутить тот же объём периферии и допилить ОС — пользоваться смартфоном будет ничуть не менее удобно (по крайней мере для обычных офисных задач, я не предлагаю на нём чертить в электротехническом САПРЕ, которого туда не завезли, или пока не завезли).
Плюс USB Type-c, который стал универсальным стандартном и для зарядки и для передачи данных и для вывода изображения на экран (но, пока, увы с оговорками).
В итоге именно смартфоны могут сделать идею BYOD реальностью.
Ну если текст редактировать, причем не большой, то может быть я и поверю. А так мобильное железо (если брать чистую производительность, без юзанья всяких узкоспецифичных расширений логики таких как какой-нибудь аппаратный кодек, ии и т.п.) — то вряд ли новейшие фламаны смогут потягаться с офисными low-end дестопными машинками, со схожим объёмом ram, 10-и летней давности.
По крайней мере у меня honor10, это типа флагман 18 года, и десктоп околотоп по меркам 2011. Ну нигде Хонор не быстрее, даже если взять основанный на quaker3 движок ioquake3, то на Андроиде спервого взгляда кажется что типа да, круто, красиво, но стоит сделать скриншоты на телефоне и ПК и разница в графике становится очевидна — на мобилке на сглаживания ни анизотропки. И более того все эти 60fps падают когда много игровых объектов.
Далее, листинг 36 мегапиксельной фотки в маштабе 1к1 это прям на нервы действует. Про комп думаю не стоит говорить что ему это легко — и так понятно.
Так что зря вы про производительность.
Кроме всего прочего — компы внушают доверие. Мобилки вам внушают? Да они мрут через 2-3 года очень аккуратного юзанья. А в компе если что-то сломается — можно в кратчайшее время изолировать прооблему и решить её. А с мобилкой — идти в сервис, где ее будут греть феном чтобы разобрать, а потом от этого фена пойдут желтые пятна после ремонта…
Мобилка — это карманный помощник — у него нет цели быть мощным, удобным и надёжным для договременной профессиональной работы. Нет и не будет.
Не измерял, я же сказал, что я не про производительность. Я про форм-фактор "маленькая коробочка с сенсорным экраном, универсальным разъёмом для подключения хаба/док-станции и батареей". Понятно, что для задач типа компиляции миллионов строк кода за раз или рендеринга полноценного кинофильма большая коробка с той же плотностью электроники сделает задачу быстрее, но я о задачах, где количества транзисторов в корпусе телефона недалёкого достаточно для нормального UX в сценариях, где у современного десктопа CPU почти всегда в idle, потому что ждёт io, а оперативка забита кэшами файлов по сути.
А в компе если что-то сломается — можно в кратчайшее время изолировать прооблему и решить её.
Это если комп самосборный или типа того. А если это какой-то брендовый системник на расширенной корпоративной гарантии, то всё то же самое, кроме того, что автомобиль нужен до сервиса довезти.
M1 — вот у него … честные ядра =)
У него половина ядер урезанные, речь шла об этом.
И что что урезанные, зато при ненагруженности меньше жрет, да и производительные ядра шустрей чем чем у Интел и амд.
То что компы вам внушают доверие — это чисто психологический фактор.
По поводу Хонор 10, у меня он быстрее пашет, чем ноут 2015 на i3, который жужит во всю и нагревается сильно под нагрузкой.
Ну вот только за прошлый месяц вроде пара статей была про Linux-смартфоны. Или для вас нормальная опреационка- это WIndows?
Librem Purism, PinePhone не делают погоды.
Это очень, очень нишевые решения, продающиеся хорошо если тысячами штук.
Я же не говорю, что если прямо сейчас взять любой смартфон на рынке, то им можно заменить топовый десктоп. Просто высказал мнение, что если вендорам железа это будет интересно, то объективных препятствий не вижу.
если вендорам железа это будет интересно, то объективных препятствий не вижу.а им неинтересно — самсунг свой DeX переделал в компаньона десктопной винде, хотя поначалу развивал Ubuntu десктопный прям на своих DeX устройствах.
Всегда интересно было, откуда они знают про востребованность или её отсутствие, если эти устройства, по сути, не вышли на широкий рынок?
Ну вероятно есть статистика использования. Может там пользовался один на миллион.
Во всех таких начинаниях есть положительная обратная связь. Если на рынке миллион устройств с поддержкой технологии, то может быть будет один пользователь на это всё, и он будет работать в отделе тестирования технологии. Зато когда будет 1,2 млн. устройств — пользователей будет 3, когда будет 10 млн. — их будет 100 тыс.
Да даже банально время на привыкание нужно, чтобы не-гики прознали про наличие такой возможности в их гаджете, ну и время на лечение детских болячек дать (а как я слыхал, там их было немало, и по сути так они и остались). А так-то, конечно — можно на минимальной выборке не увидеть 100% покрытия и убить начинание на корню.
GNU/Linux+Gnome/KDE/...?
Где при наличии аппаратной клавиатуры, экранная не вылазит постоянно
У меня это и на x86 неттопе нормально не работало (ubunta gnom plasma что ещё пробывал уже не помню)а мне всего лишь только браузер нужен был. В первый раз в конце 17года и последний с 19году. Единственная win 10 (8,1 тоже должна нормально уметь, но не пробывал.) из коробки могла нормально работать с подключенными клавиатурами и тачем и понимать какой именно в данный момент используется способ ввода.
Ну вот у меня есть tv-box, перешитый на armbian. Всё норм работает, полноценная десктопная система.
Просто подобная система нафиг не впёрлась на мобильном устройстве. Удобство использования в районе плинтуса.
То-то на iOS для планшетов куча проф софта, хорошо нагружающего процессор.
Зная авторитет Apple, можно не сомневаться: софт будет. Потому что как бы мы её не критиковали, но в чём ей не откажешь так это в умении внедрять инновации. Сами, может, ничего нового не изобретают, но внедряют на ура.
Емнип, ему давно уже требуется подкидывать рендерер фанатский, потому что его старый OpenGL косячный, а подсистемы, на которые основной D3D/DDraw полагался, выпилены давно из винды.
Сейчас софт пишется сразу под много платформ.
Если раньше Windows X86 была безальтернативной платформой, то сейчас если софт даже и пишется под Винду, всё равно закладывается кроссплатформенность.
Невозможность нормально написать имя компании это диагноз.
кто захочет нормальный видеоускоритель
будет чуть попозже с mbp 16 и imac
просто хочет Интел или АМД
просто это как? как хочу красненькую машинку?
кому под ОС не дали драйверов
Да все появится. И ОС и драйверы. Эппл просто показала, что так можно, если продажи будут ок, все начнут мигрировать на АРМ косяками.
Offtop: CH341A programmer — это который китайский, крякнутый и накрытый сверху VMProtect? Идет в комплекте с копеечными программаторами с алиэкспресса. Но зачем? Для работы с этим программатором есть длинный список нормального софта (AsProgrammer, Colibri, flashrom в конце концов)
del
у аппла (сам не использую, имхо) засчет контроля ПО не позволяется сильная гонка в размерах ПО, получается оптимизированнее, проще и за счет этого и их предпочитают — отзывчивость у систем выше чем у их конкурентов. большой выбор хуже чем 2-4 варианта, но максимально вылизанных. привет капитализму и сотни сортов
у меня под Вин 10 есть ПО
А под MacOS? Они уже 1 раз переходили на интел и ничего, перешли. Так что и еще раз перейдут и весь софт, который деньги приносит, быстренько адаптируют так или иначе.
У закрытого софта есть проблемы, увы, видимо скоро придётся регулярно запускать qemu под арм для эмуляции x86.
BogoMIPS: 50.00
Hardware: Marvell Armada 370/XP (Device Tree)
А что, кросс не работаел 5 лет назад для АРМ?
Дебажить на таргете — это экстренные случаи.
А сборка — в принципе не имеет смысла, как мне кажется, особенно сейчас, когда с контейнерами легко сделать нужное окружение типа правильной версии gcc без танцев с бубном.
Видимо apple очень хотела выпустить финальные устройства в этом году. Или результаты оказались лучше, чем они ожидали и пришлось форсировать сроки.
Если подымается linux, то поднимутся и контейнеры.
Правда, некоторые вещи придется собирать под архитектуру ручками, благо oss под это и рассчитано.
Или появится повод глянуть в сторону Erlang/Elixir.
Зная эпл — мы перестанем быть владельцами и компов, и софта
Просто кто-то не читает тексты лицензий.
И это касается не только Apple, если что.
Владельцами софта мы перестали быть лет 20 назад.
Чушь.
Просто не используйте для софта принципы, применимые только к материальным предметам.
Владелец софта — это его разработчик или тот кому разработчик передал права на продажу софта.
От того, что вы «купили MS Office» вовсе не следует, что теперь у вас есть права на многократную перепродажу лицензий на MS Office. А у фирмы Microsoft — эти права есть. Вот её и можно назвать «владельцем софта», а вы всего лишь «владелец экземпляра».
а вы всего лишь «владелец экземпляра».
Нет.
Владелец права использования без права передачи другому лицу.
Ограниченного неисключительного права использования.
а вы всего лишь «владелец экземпляра».
Нет.
Владелец права использования без права передачи другому лицу.
Необязательно.
К примеру в Германии даже Windows по лицензии OEM, что во всех странах привязана к железу и умирает вместе с ним, высудили право продавать.
Разумеется, не большее число экземпляров, чем купили.
Например 20 лет назад заплатив за лицензию Photoshop я не становлюсь владельцем программы но я могу пользоватся ей сколько захочу, пока у меня работает железо и операционка. А вот сегодня к примеру по хотению Adobe Photoshop перестанет работать по всему миру, кончится срок подписки и они например не будут больше его продлевать — а выпустят что то новое например…
Немного дополню — я лично под текст «Владельцами софта мы перестали быть лет 20 назад.»
Например 20 лет назад заплатив за лицензию Photoshop я не становлюсь владельцем программы но я могу пользоватся ей сколько захочу, пока у меня работает железо и операционка. А вот сегодня к примеру по хотению Adobe Photoshop перестанет работать по всему миру, кончится срок подписки и они например не будут больше его продлевать — а выпустят что то новое например…
Это особенность конкретно Photoshop и лет этой особенности не 20, а всего лишь несколько.
Больше того, вы его продать могли спокойно. Что для меня гораздо больший ярлычек права владения. А стим игру уже не продать особо без доброй воли стима (есть ли она я честно говоря не помню)
Вы поосторожнее с такими высоконадёжными заявлениями, а то я всё же напрягусь и найду политику лицензирования Alias PowerAnimator, например, который ещё 30 лет назад был исключительно _арендуемым_ продуктом.
Просто люди только сейчас начали понимать(когда это стало действительно массовым явлением) что они ничего никогда не покупали, они всё это время — арендаторы.
>>Это особенность конкретно Photoshop и лет этой особенности не 20, а всего лишь несколько.
Да ну? А вы исследования проводили, да? Вчитывались в лицензии?
PS: Надо будет Valve/Steam сообщить что они — «всего лишь частный случай и им всего лишь несколько лет». На Хабре специалисты сказали, ага.
linustechtips.com/topic/953835-you-own-the-software-that-you-purchase-and-any-claims-otherwise-are-urban-myth-or-corporate-propaganda
Интел предлагает «убогое» решение — CPU + мост. А на мамке у вас — разъемы, питание, ну и пара ПЗУ флешек с батарейкой. Ну и какой нить суперио чип, для всяких клавиатур и тпм.
Все остальное — в 2х чипах интел. А именно:
В мосте — контроллеры SATA, PCIe, Ethernet, USB и прочие вайфаи и итуси. В процессоре — контроллеры RAM, PEG (PCIe для видюх), графика, ME и прочие эмэмикмсы.
При этом я не понимаю зачем закладывать в мост 15 портов PCIe или 16 SATA или 16 USB, плодя количество ножек в геометрической прогрессии…
Большинство ARM — это SoC, без моста, все в проце. А Apple еще на него влепила RAM — вообще красавцы, выкинули сложную и не любящую тряску DRAM, заменив ее на memory-down. Мамка в таком варианте — просто плата со слотами расширения и развязкой питания. Какая тут инфраструктура? Нет моста — нет проблем при переходе между поколениями процессоров.
При этом у интел есть еще гадки ME, который не слабо потребляет, и хрен знамо чем занят. И загрузчик для интел (БИОС) — это тоже монстр в пинетках из UEFI, в котором черт ногу сломал. У ARM — все гораздо проще, лучше и понятней.
А запустить игру 99 года — можно и через эмулятор x86.
P.S. Uboot для ARM собирается GCC, под линукс. Интеловский EDK2 (скелет для UEFI BIOS) — лучше всего собирать в MS Visual Studio. У интела система сборки на «батничках». Когда увидел это — понял, они все, закончились.
Проснитесь, сейчас и интел комбайны делает в ноутбучном сегменте. Только ноутбук и смартфон — это 2 большие разницы, хотя бы по организации питания: разница на порядок. И интеграция компонентов в кристалл ни к чему хорошему не привела. Будет проще, говорили они. Будет дешевле, говорили они. Не стало проще, не стало дешевле. Комбайны вылетают, особенно из-за вечной интеловой проблемы с юсб, реже — из-за повреждения vrm, стоимость замены камня сравнима со стоимостью ноутбука, если цена, по крайней мере, до 30 тысяч, но не суть, потребителю не легче. Раньше это была замена относительно копеечного моста, особенно во времена южников/северников, ибо их состав позволял выпускать себя на старом окупившем себя обррудовании. Процессор же занимался сугубо своими делами, и от косяков остальной части пк не страдал. Если ноутбучные/настольные армки будут по цене хотя бы вполовину интела при равной скорости, либо ниже, то это еще куда ни шло. В противном случае, это очередной виток закабаления поребителя.
ибо их состав позволял выпускать себя на старом окупившем себя оброудовании
и в результате чипсеты грелись едва ли не больше Атомов.
Все же помнят кулеры на чипсетах — это оно — старое, окупившее себя решение.
Кто-нибудь сделал на нём материнку без кулера?)
Удалось найти только mini-ITX от Asus, там, похоже, вентилятора нет на чипсете… Но есть 2(!) вентилятора на питании.
Нет моста — нет проблем при переходе между поколениями процессоров.
Лютый, феерический бред.
Запустите-ка прошивку от телефона А на телефоне Б. Там же ARM SoC, экономия ножек, все дела. Я даже на инженерных версиях железа готов запустить (чтобы исключить secure boot и проверку подписи вендора).
Берешь последний ролик coldfusion с ютуба, переводишь и выдаешь за свою статью
А, да! И рекламный блок в конце вставлять! Куда же без рекламного блока.
Имхо, главное преимущество x86 на сегодня — всеобщая совместимость. Если у меня есть какое-то устройство с процессором x86, то я могу зайти на сайт любой операционной системы, скачать сборку (Win/Lin/CrOS/etc) и, вероятнее всего, она успешно встанет на мой компьютер. И наоборот, покажите мне хоть одну ОС, которую я могу установить на произвольно выбранное ARM-устройство. Нет таких, это невозможно — под каждый планшет своя прошивка и т. д.
… преимущество x86 на сегодня — всеобщая совместимость...
с появлением ресурсов подобных github, появилась неплохая альтернатива бинарному распространению софта
для тех кто используют к примеру Gentoo — архитектура (обратная совместимость) имеет меньшее значение чем производительность, энергоэффективность
Но для пользователей важно удобство, для корпоративного использования — вендор с поддержкой, сертификацией и курсами.
В результате Gentoo реально нужен единицам процентов. Даже среди (в среднем) продвинутых Linux пользователей.
Кстати, как представитель махрового ынтырпрайза, должен отметить, что даже за установку свежего unzip из исходников машину снимают с поддержки (вот так вот). В лучшем случае — соберут куда-нибудь в пользовательскую папочку, после десятка согласований.
Как нынешний пользователь генты я сам понимаю, что я тут ССЗБ во всей красе, зато получаю именно то, что моя пятая точка себе хочет заиметь.
просто писал тикеты, что что-то не работало/глючило, а в результате переписки прилетали скрипты и пакеты с инструкциями, как это поставить, собственно голова у меня не болела о «надо бы новый libwornderass скомпилить и поставить чтоб pimpmyfsck завелось», она болела у техподдержки красношляпых
Тоже рабочий вариант, если у вас есть много времени.
Я работал (работаю) в RnD, там обычно просят «побыстрее».
Имхо, главное преимущество x86 на сегодня — всеобщая совместимость. Если у меня есть какое-то устройство с процессором x86, то я могу зайти на сайт любой операционной системы, скачать сборку (Win/Lin/CrOS/etc) и, вероятнее всего, она успешно встанет на мой компьютер. И наоборот, покажите мне хоть одну ОС, которую я могу установить на произвольно выбранное ARM-устройство. Нет таких, это невозможно — под каждый планшет своя прошивка и т. д.
А зачем эта совместимость, если имеется определённый шанс, что что-то не взлетит под другой осью. Например:
1) Не будет дров вообще под Win7/Win10.
2) Конкретно эта сетевая/wi-fi/BT карты не запускаются под конкретно этим дистрибутивом Linux.
3) Всего хватает, но энергосбережения и оптимизацию не завезли, в итоге ноут работает полчаса вместо четырёх.
4) Мощности самого железа не хватает, чтобы тянуть эту самую новую сборку.
Нет, вы не подумайте, я не топлю против очевидной пользы обратной совместимости. Я лишь хочу сказать, что она не настолько всемогуща.
Сегодня миром правит сетевой формат — 70% пользователей плевать, что у них за процессор и ОС, главное чтобы браузер запустился, а в нем их любимая ферма/елочка/индикот…
Не понятно как в диаграмме из обзора Anandtech разрыв между 7700к и 9900к может быть в 10%, при том что в 9900к в 2 раза больше ядер и потоков
Если вы начнёте смотреть на реальное потребление энергии вместо бумажных TDP вас ждут интересные открытия.
Что такое этот "idle normalized power"?
Он там расположился бы чуть выше A13, если бы эти замеры делали сейчас, а не до выпуска A14 и M1.
Улучшенный тех. процесс + больший результат в Geekbench при примерно том же максимуме потребления.
Это был ответ на:
«Огромная производительность в расчёте на ватт» — примерно одинакова с Zen 2
Мне кажется, картинка достаточно хорошо иллюстрирует кардинальный разрыв в этой метрике между ядрами от Apple и Zen 2.
Zen 3 в мобильном исполнении на данный момент не существует, а десктопные версии плохо помещаются на этот график по горизонтальной оси:
https://www.reddit.com/r/hardware/comments/jrt0ay/apple_announces_the_apple_silicon_m1_ditching_x86/gbxiaaf/
А в чём перл? Это CPU с интегрированной видеокартой для лёгкого ноутбука с пассивным охлаждением. Интегрированные GPU от Intel и AMD сильно слабее, поэтому, чтобы хоть с чем-то сравнить, нашли близкую по производительности дискретную карту.
Так же, как не будет и у тысяч других ультрабуков со встройкой и без Thunderbolt.
Почему его GPU надо сравнивать именно с 2080 или 1660/1080? Эти карты в принципе не влезут в нужный энергопакет. С тем же успехом можно поставить рядом десктопную 3090 и насмехаться.
Тем временем, на рынке интегрированных GPU ничего сравнимого просто нет.
M1 сейчас стоит только в ультрабуках (Mac Mini — отдельный разговор) и именно для них делался.
С любым ноутбуком без Thunderbolt нельзя использовать внешний видеоускоритель. Не говоря уже о том, что ниша использования eGPU довольно узкая.
С любым ноутбуком без Thunderbolt нельзя использовать внешний видеоускоритель.
Спорное утверждение. Еще 10 лет назад, сняв задюю крышечку, к ноутбукам подключали PCIe видюхи :)
Знатное извращение, но ведь работало!
Плашку "перевод" всё-таки надо бы поставить: https://jamesallworth.medium.com/intels-disruption-is-now-complete-d4fa771f0f2c
Покрутить бы этот М1 в своих руках. А то никак не могу избавится от подозрений что эпл оптимизировала некие узкие задачи, на которые и делают упор бенчмарки. А geekbench вызывает серьёзные сомнения в репрезентативности при сравнении разных архитектур — например, на древнем Xeon X5650 браузер летает, а на Galaxy S9 та же страница "подлагивает", несмотря на бОльшую производительность на ядро у телефона.
Это легко объясняется тем, что все эти тесты много лет оптимизировались под x86, включая использование ассемблерных вставок с AVX инструкциями: https://forums.anandtech.com/threads/new-apple-soc-m1-for-lower-end-macs-geekbench-5-single-core-1700.2587205/page-42#post-40361688
Под ARMv8 никто их не оптимизировал, в лучшем случае перекомпилировали "что есть", иногда получая результаты хуже, чем у x86-версии с SSE-оптимизациями через Rosetta.
Серьёзно? Кучка разношёрстных кусков кода, про которые достоверно известно, что многие оптимизировались исключительно под x86, лучше, чем набор специально подобранных и предназначенных для кроссплатформенной оценки разных аспектов производительности CPU тестов (SPEC2006/2017, Geekbench)?
Про какую непредвзятость вы сейчас говорите вообще?
Geekbench — это набор платформозависимых бенчмарков для различных аппаратных ускорителей. К производительности CPU это очень слабо относится.
Комментарий Линуса Торвальдса:
On ARM64, that SHA1 performance is hardware-assisted. I don't know if SHA2 is too, but Aarch64 does apparently do SHA256 in the crypto unit, so it might be fully or partially so.
And on both ARM and x86, the AES numbers are similarly just about the crypto unit.
So basically a quarter to a third of the "integer" workloads are just utter BS. They are not comparable across architectures due to the crypto units, and even within one architecture the numbers just don't mean much of anything.
And quite frankly, it's not even just the crypto ones. Looking at the other GB3 "benchmarks", they are mainly small kernels: not really much different from dhrystone. I suspect most of them have a code footprint that basically fits in a L1I cache.
Сюрприз, на x86 теперь тоже hardware-assisted: https://en.wikipedia.org/wiki/Intel_SHA_extensions
И это Линус писал про GB3, с тех пор они очень хорошо поработали над сравнимостью результатов для разных платформ, и заработали хорошую репутацию. Сейчас в результатах GB5 сомневаются только те, кто не может поверить в то, что ARM в принципе может соревноваться с x86.
Сюрприз, на x86 теперь тоже hardware-assisted: https://en.wikipedia.org/wiki/Intel_SHA_extensions
Вы сначала дочитайте пост, на который отвечаете до конца, потом комментируйте:
And on both ARM and x86, the AES numbers are similarly just about the crypto unit.
Так, а в чём претензия-то тогда?
И там и тут это инструкции процессора, входящие в базовую ISA, которые используются в реальных криптографических приложениях. Тест назван Crypto. Результаты сравнимые.
Сейчас вот Intel Tiger Lake даже выигрывает в этом тесте у M1, что не даёт ему большого преимущества: https://browser.geekbench.com/v5/cpu/compare/5079627?baseline=5078369
Ну я вот тоже, если честно, не могу поверить, учитывая что ARM архитектура создавалась с прицелом на простой и ограниченный набор команд, а также максимальную энергоэффективность. Этот вектор, вроде как, противоположен вектору быстродействия. Физически невозможно на простых коротких командах достичь большего быстродействия, т.к. этих команд потребуется гораздо больше для достижения того же результата
ARMv8 очень далеко ушёл от академических измышлений об ограниченном наборе команд.
Сейчас плотность кода x86 и ARMv8 примерно одинаковая.
У большого количества команд есть свои проблемы. Если мне не изменяет память, то у современных х86 процессоров бывает, чтобы полностью пройти весь пайплан выполнения команды нужно пройти по 12 шагов. И если branch prediction не угадывает, то последующие команды выбрасываются и вам придется подождать 12 тактов, чтобы продолжить работу в нормальном режиме.
Зато их можно параллельно загрузить в 8/16/256 декодеров разом.
Собственно, 8 декодеров были уже в Marvell Thunder.
CISC-инструкции нельзя загрузить параллельно в декодер, не декодировав частично инструкцию — вы просто не будете знать, откуда начинать загрузку следующей инструкции. Поэтому увеличивать ширину процессора для x86 бессмысленно, если не удлинять сами конвейры — что накладывает штрафы на производительность нелинейного кода.
А RISC — он не про упрощенные команды, как многие думают, а про регулярную структуру и заточку на максимальное быстродействие команд.
Хоть ликбез пиши…
С большой шириной уже скорее в ROB упор пойдет — в худшем случае нагрузка на него будет расти как произведение одновременно выходящих с конвейров операций на количество операндов.
Зато можно сбросить частоты, сохранив производительность, что даст возможность понизить напряжение, отчего мощность упадет уже в квадрате — дополнительно к снижению от понижения частоты.
Но да, бутылочных горлышек еще хоть отбавляй. Собственно, их преодоление и обеспечивает рост.
Вы же отлично понимаете, что это не произвольный набор непонятно чего, а именно что отобранные и проверенные целым комитетом куски кода. И SPEC отвечает за результаты своей репутацией.
У вас есть какие-то конкретные факты, что "более реальные" задачи выполняются на M1 хуже, чем на Intel аналогах, при прочих равных?
Если нет, тогда к чему эти спекуляции про затачивание под тесты?
Я уже показывал вам результаты цивилизации через Rosetta:
https://www.tomsguide.com/news/macbook-pro-m1-benchmarks-are-in-and-they-destroy-intel
https://www.macworld.com/article/3597198/13-inch-macbook-pro-m1-review-amazing-breakthroughs-in-processing-and-battery-performance.html
И нет, это не "при прочих равных" и не про процессор.
Посмотрите cinebench r23. Имхо, самый объективный бенчмарк.
Cinebench меряет производительность в одной конкретной задаче на одном конкретном "render engine". Его результат нельзя считать взвешенной оценкой производительности CPU в целом.
Плюс к нему тоже есть ряд вопросов:
1) насколько хорошо его успели портировать под M1, учитывая, что под x86 оптимизировали много лет?
2) низкая загрузка CPU на M1
Ну, 23 версию создавали для arm, а не для m1.
Проверить ее можно сравнив результаты обычных х86 процессоров с результатами в прошлых версиях. Насколько знаю, там примерно паритет.
Мне этот тест нравится тем что измеряет грубую производительность. Я думаю со временем вопрос с низкой загрузкой решат или дадут объяснение.
А сейчас бывает что-то не гетерогенное? Даже простые микроконтроллеры сейчас со спецядрами, как минимум, для CRC и крипты.
Справедливости ради, для JS там есть специальные инструкции :)
https://stackoverflow.com/questions/50966676/why-do-arm-chips-have-an-instruction-with-javascript-in-the-name-fjcvtzs
Это просто режим работы преобразования float->int, где определяется что делать если число не влезает в int. FCVTZS делает насыщение до 0x7fffffff, FJCVTZS оставляет модуль 2^32.
Вы ведь помните что в Pentium 4 были специальные инструкции для «ускорения Интернета»? :)
Intel calls the new architecture of Pentium 4 'NetBurst'. The idea behind this name is for me just as unfathomable as the 'Internet SIMD Streaming Extension'
Мне же искуственные попугаи бенчмарков фиолетовы — пусть лучше сравнят что-нибудь вроде вычислительной гидродинамики в каком-нибудь Ansys Fluent.
Если под конкретный бенчмарк у М1 есть подходящее специализированное ядро — то он с лёгкостью уделывает конкурентов, если нет — то сливает по полной.
Так в каких тестах сливает по полной из-за того, что якобы не нашлось акселератора?
упоминая всякие Neural Engine и Final Cut Pro.
Давайте наконец выясним, как Neural Engine помогает тому же Clang?
в каком-нибудь Ansys Fluent.
В SPEC2017 есть тест просчёта динамики жидкостей 519.lbm_r
www.anandtech.com/show/16252/mac-mini-apple-m1-tested/4
M1 там всех обгоняет в однопотоке: любой Интел (с большим отрывом) и даже Ryzen 3 =)
Вот ведь какие хитрецы! Наверное встроили «специализированное ядро» для просчёта fluid dynamics ^_^
А как по мне, ваш Ansys Fluent есть такой же «фиолетовый» бенчмарк, а вот Clang инструмент, которым я пользуюсь постоянно.
А что если запустить виртуалку с андройдом на зеоне и потестить производительность на ней и на смартфоне?
Ну я согласен с тем, что андроид плохо оптимизирован, но исполняется то он на трубке нативно а не через ВМ.
Лицу, пожелавшему остаться неизвестным, спасибо за плевок в карму. Во что это хабр превращается, если за предложение сравнить производительность там и тут так весело карают?
Как-то так и выходит, Geekbench известный оптимизированный под Apple бенчмарк. Есть хороший старыый тред об этом: https://www.realworldtech.com/forum/?threadid=136526&curpostid=136598
Это всё равно что делать выводы про Taycan на основе опыта эксплуатации Lohner-Porsche.
Другие тесты, другая методика, другие датасеты.
В GB3 мобильные и декстопные тесты использовали разные датасеты.
Сейчас, когда мобильные чипы соперничают с десктопами, тесты не отличаются ни чем.
GB3 полное говно, а GB5 вполне годный кроссплатформенный бенчмарк.
оптимизированный под Apple бенчмарк.И что же в нём оптимизировано под Apple?
Давайте детали, не томите уже =)
Даже если бы Clang, LZMA, PDF, HTML парсеры бы как-то хитро оптимизированы под Apple, то сравнивать платформы Apple (x86, ARM) всё можно было бы, верно?
www.youtube.com/watch?v=59gAjXT7qyw
Еще интересно то, что все тесты, где новый arm побеждает x86, сделаны этим гикбенчем
Прям таки все? =)
www.anandtech.com/show/16252/mac-mini-apple-m1-tested
techcrunch.com/2020/11/17/yeah-apples-m1-macbook-pro-is-powerful-but-its-the-battery-life-that-will-blow-you-away
то он там тестирует — неизвестно
А вы… пытались узнать?
www.geekbench.com/doc/geekbench5-cpu-workloads.pdf
www.geekbench.com/doc/geekbench5-compute-workloads.pdf
support.primatelabs.com/kb/geekbench/interpreting-geekbench-5-scores
В основном, по крайней мере.
Если бы вы прошли по ссылке, то увидели бы тестирование в SPEC и других бенчах.
SPEC разумеется показывает тоже самое что и GB. Потому что ядро Firestorm очень мощное и справляется с любыми задачами.
Что они там сами о себе пишут, мне категорически не интересно,
Занятно… То вы утверждали что это якобы «неизвестно», но как оказывается всё прекрасно известно, просто вам не интересен данный вопрос.
В описании представлены опенсорсные программы и библиотеки которые они тестируют в купе с описанием датасетов.
Тесту, который прячет свои исходники, априори никакого доверия.
Вам кто-то мешает скачать те же самые программы и запустить?
у самого интела такая тема была с пентиум 4. который неплохо «ускорял интернет» в тестах, но проигрывал в играх и других программах, где было сильное ветвление кода.
Покрутить бы этот М1 в своих руках. А то никак не могу избавится от подозрений что эпл оптимизировала некие узкие задачи, на которые и делают упор бенчмарки.не удивлюсь, мне тут недавно заявили, что замеры автономности при просмотре видео на MBP надо измерять только в православном iTunes. Тогда, возможно, при совпадение всех условий вы получите те цифры, которые заявляет Apple
Но я еще хотел спросить, вот вы рассказываете про закат х86 и восход ARM. А в конце статьи пишите, что сдаете в аренду «эпичные» сервера с процессорами Intel и AMD. Вам не кажется, что немного нелогично?
А расскажите, какие заводы за миллиарды и десятки млрд долларов построила Интел в последние годы?
Не ещё.
Компьютером, как вы его понимаете, он никогда и не станет.
Хотя, мой старый iPad Air с джейлом пытается. Но сами понимаете...
Эниак сторонние приложения поддерживал?)
Не стоит удивляться, если это будет процессор с 6-16 большими ядрами, а в течение 18-36 месяцев мы увидим следующее поколение с 16-32 большими ядрами. И преимущество архитектуры ARM никого не будет удивлять на рынке и настольных компьютеров, и серверных систем.
Преимущество x86 не сводится только к повышенной производительности и пониженному потреблению энергии. Важная часть — совместимость между устройствами и операционными системами. Сегодня я могу взять флешку с Дебианом и поставить его почти на любой x86 компьютер. С ARM такой номер не прокатит. Даже похожие ARM устройства требуют каких-то уникальных драйверов (часто несвободных) и каких-то плясок.
Вот когда для ARM будет достигнута совместимость на уровне подобном x86, Интелу можно будет насторожиться. А пока — нет.
При нужном компиляторе, проектов 80% можно будет собрать одним кликом мыши, с выбором галочки «собери под arm».
Да, возможно что то поправить будет нужно, но это не будет переписыванием кода с 0.
При нужном компиляторе, проектов 80% можно будет собрать одним кликом мыши, с выбором галочки «собери под arm».
Дело не в приложениях, а во взаимодействии железа и операционной системы. Для ARM нет стандартной открытой архитектуры, подобной той которая в своё время возникла с IBM PC. Почему ГНУ/Линукс, Виндовс, БСД и прочие операционки могут запускаться на незнакомом железе? Всё потому что есть набор поддерживаемых стандартов или стандартного железа. В мире ARM всё иначе. Каждой новое ARM устройство получается несовместимым с существующими операционными системами и требует какую-то свою уникальную прошивку, драйвера и хитрые настройки, известные только производителю.
Именно это сдерживает рынок ARM устройств от взрыва, способного снести Интел.
Насколько помню x86, что то подобное проходили или как раз пришли к этой идеологии в x86,
Опять же, требуется всего лишь время, создадут альянс стандартизации
Требуется время, да. Но не только время. Нужно ещё желание. Захочет ли этого, например, Эппл, который делает всё, вплоть до штекеров нестандартным? Если бы стандарт был нужен, его бы уже сделали. Похоже что пока всех, от кого это зависит, всё устраивает.
А значит Интел может пока расслабиться. К сожалению.
Да господи, интел завтра sleep() из микрокода уберет и выпустит очередные "революционные" процы, которые они хранили на случай проблем.
Как это было при переходе от Netburst к P6, перемаркированной в Core.
P4 долго сливал их же P!!!, сперва в виде Tualatin, потом Pentium M и Core.
А потом его выкинули.
U-boot уже умеет заводить UEFI поверх себя.
Ну и инструкция от xypron
До текущего времени была монополия на процессоры для рабочих станций, и серверов(AMD и Intel). Причем обе компании Американские.
Теперь Apple, пусть не самый большой игрок, но определенное значение в ИТ имеет, ставит в свою технику ARM. Тем самым показывая что процессоры доросли до премиум сегмента. Замечу, это несмотря на большие издержки по переносу ПО на новую архитектуру.
Второе Китай сейчас ссорится с Америкой, и они имеют мощности для производства своей компонентной базы. Что дает определенный вектор на создания алианса.
Третье в геополитической картине получилось так, что все кто опоздал, оказались не удел в создании процессоров(тут Америка всех выиграла и держит монополию), и нагнать на x86 архитектуре до последнего момента было не реально. А вот архитектура ARM позволяет сократить такой разрыв.
Поэтому может быть рано говорить что Intel не удел, но и не все так радужно со стороны Intel и AMD.
Дело не в приложениях, а во взаимодействии железа и операционной системы. Для ARM нет стандартной открытой архитектуры, подобной той которая в своё время возникла с IBM PC. Почему ГНУ/Линукс, Виндовс, БСД и прочие операционки могут запускаться на незнакомом железе? Всё потому что есть набор поддерживаемых стандартов или стандартного железа.
Я ни в коем случае не отрицаю возможных бонусов обратной совместимости и стандартизации.
Проблема тут только в одном: если бы оно действительно работало именно так, то не было бы тем вида «посоветуйте ноутбук под линукс», или «а какая сетевая карта заработает под FreeBSD?», или «а я установил OS-name и мой ноутбук стал работать от АКБ в три раза меньше» и не было бы списков совместимости.
То есть да, условная совместимость есть. И часть свежих операционных систем без серьёзных проблем стартанут на свежем железе. А вот будет ли оно пригодно к работе — вопрос. Например у фряхи есть определённые проблемы с рилтек сетевыми (сам сталкивался), которые могут проявляться в том числе и как зависание сетевого стека при определённой нагрузке. Решение в моём случае оказалось поставить другую сетевую карту от Intel.
То есть, выражаясь иными словами, x86 это экосистема и архитектура, а ARM — это просто набор команд центрального процессора. Через это, их и сравнивать-то не корректно.
Armv8 никогда не был RISC
Но отчасти соглашусь, современный ARM это совсем не RISC и тянет за собой legacy хвост подлинее интелловского x86.
Если ограничиться только длиной команд, числом регистров и ld/st — то безумный квалкрммовскийи Hexagon тоже RISC. А это вообще VLIW DSP.
Причем забавно, что сама Qualcomm его при этом RISC не считает:
This packet is claimed by Qualcomm to be equal to 29 classic RISC operations; it includes vector add (4x 16-bit), complex multiply operation and hardware loop support. All instructions of the packet are done in the same cycle.
Обычно, разделение RISC/CISC применяют к процессорам общего назначения. VLIW DSP к ним не относится. Кроме того, само наличие VLIW, как бы отменяет RISC, по-моему.
Вы программировали под него на ассемблере? Я — да. И реверсил. Это самая странная архитектура, с некоторой я имел дело до этого. Так что "безумный" — мое оценочное суждение.
Насчёт RISC я всего лишь взял ваше определение. К которому вы аппелировали в случае с ARMv8. И по нему выходит что шестиугольник — тоже RISC.
Вы программировали под него на ассемблере?
Я без претензии спрашивал. Из любопытства. Сам когда-то писал под Oak и Carmel DSP, там тоже VLIW, аппаратные циклы и параллельное программирование на уровне ассемблера. Старшие товарищи рассказывали, что это на всех DSP так.
Всё-таки, в DSP обычно есть инструкции которые под RISC никак не подходят.
С другой стороны, и в ARM, и в MIPS, есть DSP расширения (да и другие всякие расширения), так что все эти определения и категории довольно условны
и в ARM, и в MIPS, есть DSP расширения
Вы имеете ввиду команды SIMD для обработки векторов, матриц, FFT и тому подобных вещей?
все эти определения и категории довольно условны
Согласен.
В то же время ARM32 значительно «прямолинейнее» и проще. Регистры доступны все. Флаги в инструкции всегда. Вплоть до того, что переходы это загрузка в PC, а относительная адресация от PC использует неявно длину конвеера, и это вынужденно тянется с рождения. И то его Thumb/Thumb2 уже врядли можно считать RISC. (Там уже и про фиксированный размер инструкций как-то забыли постепенно, и условное исполнение блоков добавили).
Кстати, посмотрите как кодируется длинный прыжок в Thumb, это просто адская жесть!
ARM64 ISA полная противоположность 32 битной. Забили на простой декодер ради более компактного кода. Огромное количество сложных инструкций. Их длина действительно фиксирована. Нет прыжков между режимами. Отказ от свободной манипуляции регистрами (PC, SP) — например RET это RET, а не MOV PC, LR. Вместо сумбурных команд с этими операндами (которые не всегда имеют смысл) довольно стройно вписался [W/X]ZR.
Субьективно, основное отличие от CISC (навроде AMD64) только в фиксированной длине команды.
И по нему выходит что шестиугольник — тоже RISC.
С чего бы?
В RISC не упаковывают несколько независимых команд в одну широкую команду.
В признаках, идентифицирующих RISC такого и быть не должно.
Это специфическое свойство VLIW и есть одно из основных его отличий от других.
Вы можете сказать про ARM-овский add+shift, но это одна команда с модификатором источника. Как и lea на х86.
Заметьте, ни слова о пакетной обработке или характере самих инструкций.
По этим критериям оппонент классифицировал ARMv8 как RISC. Хексагон удовлетворяет всем этим критериям. Но он, очевидно, не RISC.
А теперь заменяем x86 на AArch64 и получаю прикол вида «таак, а где devicetreeblock под конкретно эту плату». Сдохла старая материнка, купил другую — снова привет, надо для неё devicetree.
Ну а пакеты да, собираются и работают.
Apple как катализатор перемен выглядит слабо; они могут делать сколько угодно хорошее железо но всегда этому мешают фундаментальные ценности компании:
- У Apple слишком маленькая доля на рынке.
- Большинство их коннекторов и интерфейсов — проприетарные. А значит для Apple всегда будет меньше возможностей для кастомизации и расширения.
- Ограниченная поддержка софта. Железо Apple нормально работает только под ОС от Apple. Все последние макбуки уже много лет хуже работают под Windows и Linux из-за отсутствия профилей питания для процессора, от чего он перегревается, работает медленее и меньше по времени (от батареи).
- Быстрая софтовая смерть. 5-7 лет в зависимости от модели и Apple перестает обновлять ОС для вполне живого ноутбука.
Помню как раньше Apple продвигали свои отвратительные интерфейсы (FireWire, Apple Display Connector и прочая дичь) и везде их ждала неудача. Хорошо хоть этим перестали заниматься и поставили USB-C как все остальные. Хотя lightning до сих пор живет.
последовательно продвигается как минимум с 1014 года
Что-то медленно продвигается, если целую 1000 лет на это надо...
А это всего лишь опечатка, эх.
Тем, что в тот момент уже был USB, который работал.
Apple с Сони 10 лет не могли поступить как мужчины и закончить никому не нужную войну форматов.
возможность устройства быть как хостом, так и ведомым
А можете раскрыть мысль подробнее? USB otg host в смартфонах появились задолго до Type-C; понятное дело, что их всё ещё можно было подключать к ББ как внешнее устройство.
P.S.: нашёл, можно было (не ко всем моделям), но большинство имели usb-хабы и могло-таки работать в этом режиме.
У моего последнего устройства (Samsung WiTu/Omnia i900) был проприетарный разъём, там точно можно было.
Хост — это отдельный USB интерфейс и именно в этом и было преимущество USB перед FireWire: если хост не нужен, то его и не ставили. В FireWire все фичи были добровольно-принудителными, поэтому в лучшем случае жрали дополнительную энергию и увеличивали стоимость.
КПК с USB хостом появились уже в конце их эры и требовали переходников со своих проприетарных разъемов.
Совершенно другая проблема хостов в том, сама эта возможность не дает почти ничего: вся суть в поддержке со стороны ОС и наличии достаточного питания. Обычно они ограничивались мышками и клавиатурами.
Удобство разъема еще ни о чём не говорит (но он, пожалуй, всё же удобнее microUSB), особенно, учитывая, что у нас теперь есть зоопарк всяких Gen'ов, PD, QC/-2/-3/-4, Thunderbolt'ов и прочих расширений и спецификаций, применимых как к устройствам, так конкретным разъёмам на этих устройствах, так и кабелям. Которые, казалось бы, должны быть универсальными (но нет. Какая ирония — Universal Serial Bus cable ни разу не универсален в нашу эпоху).
Всяким мышкам не нужны все эти гены, доставки поверов и прочие Thunderbolt.
можно будет делать любые разумные комбинации
противоречит друг другу. Мышкам, может быть и не нужны, а хостовым устройствам нужны. А еще мониторам нужны, чтобы они картинку показывали. В результате, если кабель обладает лишней «полезной» нагрузкой, и он вставлен одним концом в мышку (предположим, что там есть разъем), а другим в современный макбук, то он просто не задействует части возможностей. А если дешевый кабель, который выглядит как USB cable, пахнет USB cable, и продаётся как USB cable, но не передаёт видео, будучи вставленным в монитор и в макбук другим концом, то это проблема.
Что касамео флешек — у меня были двусторонние флешки. С одной стороны microUSB, с другой USB. Тоже работало.
Вы сводите всё удобство к единообразию разъема и только лишь. Единообразие разъема — одно из условий, но не единственное.
одинаковому разъёму сейчас можно соединить любые 2 устройства, но это не всегда имеет смысл.
Кажется с этим ужасом долго и упорно боролись, а теперь опять пришли к нему же. Даже в шлейфах к флопикам разные пины заклёпывали, чтобы нельзя было соединить 2 устройства так, чтобы это не имело смысла.
Вы все правильно поняли)
Хост все еще не обязателен, Type-C это вообще только спецификация разъема, можно сделать абсолютно пассивный порт и подключить его к древнему микроконтроллеру, который умеет только USB 2.0 slave и все будет работать. Вот этим USB и хорош.
то я тогда решительно не понимаю, о чём говорит sumanai
О том, что Apple в очередной раз создали мегареволюционную, опередившую время технологию, но злые люди не поняли Великих Гениев и ставили везде отсталый медленный USB, не желая платить Apple по двадцать баксов с устройства за разъем, обязательный логотип и микросхему — интерфейс.
Если бы не злые дяди из USB-IF, то у нас сейчас бы были флешки, которые можно было бы соединять друг с другом и копировать между ними файлы! А, забыл, благодаря уникальной технологии DaisyChain можно было бы в задницу одной флешки втыкать другую и экономить порт!
Они ровесники. Просто разные отцы (Apple, Sony & прочие против Intel, Microsoft, Philips & прочие) и неправильная лицензионная политика.
При этом FireWire поддерживал такие фичи, как подключение нескольких устройств (есть в Thunderbolt) и возможность устройства быть как хостом, так и веломым (появилось с Type-C).
Какой смысл в этой демагогии, если USB был лучше изначально и поэтому и стал самым массовым стандартом подключения периферии?
USB был хуже и медленнее, но сильно дешевле
На Хабре есть перевод отличной статьи об истории FireWire
https://habr.com/ru/post/405673/
А вы можете мне скинуть pdf этой статьи на FireWire — флешку? Ха-ха)
В той статье не написано главное: стандарт убила жадность Apple, которая привела к тому, что разъем, лицензия на обязательный логотип и микросхема-контроллер стоили дороже, чем 99% устройств, которые хотелось подключать.
Мертворожденный стандарт, который почти всем технически хуже USB.
Хуже сложностью, дороговизной, неприспособленностью к реальной жизни, энергопотреблением и наличием бесполезных фич, которые в реальности никогда не работали.
Взять тот же DaisyChain, на бумаге классно, а в реальности скорость выставлялась по самому медленному устройству. Подключил мышку к сканеру — он начинает сканировать в десять раз медленнее. То есть реально это было применимо к мышкам и клавиатурам, а во всех остальных устройствах нисходящего порта не было.
Жаль, что в USB не было возможности сделать клавиатуру с USB портом для мышки… а постойте-ка, в USB есть хабы, которые к тому же могли согласовывать скорости и такого бреда, как в FireWire, когда одна мышка замедляла всю ветвь дерева не было.
По сути FireWire — это коаксиал с шинной топологией, продолжение ADB, а USB — это витая пара со свитчами.
Прямо сейчас такая.
А ты точно умеешь в сарказм и чтение предложений целиком?)
Жаль, что в USB не было возможности сделать клавиатуру с USB портом для мышки… а постойте-ка, в USB есть хабы, которые к тому же могли согласовывать скорости.
Пишут, что и на USB бывает такое с некоторыми хабами.
А у FireWire это бывает всегда. Потому что выбор шинной топологии был ошибкой.
А вы можете мне скинуть pdf этой статьи на FireWire — флешку? Ха-ха)
Я скину, прысылайте флешку :D
большинству пользователей вообще не хочется и не нужно возиться с внутренностями, для них интерфейс с железкой — это её практичная функциональность — воспроизведение звука/видео, открытие книжек/вебстраничек, игрушки, карты/переводчик/
Это всё прекрасно. Я немного далек от сегодняшнего состояния эпл (обладаю устаревшими данными), а по сему вопрос: могу ли я как простой пользователь просто подключить iPhone по USB к рандомному ПК на Windows (без тунца) — как флешку — и закинуть туда свои книжки с флибусты и свою музыку, которую я заботливо отсортировал по папкам (а не по тегам и прочим пожеланиям тунца), и потом так же легко как на пк или Andoid её по папкам воспроизвести?
Или всё еще на работе/в гостях я должен искать ПК с тунцом (он же ведь у каждого, правда?), сортировку музыки доверять плееру, который превратил теги моих скачанных непойми откуда MP3 в крякозябры, а для доступа к файлам по папкам творить шаманства с потрохами, джейлом и сторонними файловыми менеджерами?
Простой пользователь сейчас слушает спотифай
Гугл показывает, что аудитория спотифай порядка 160 млн человек (интересно, включая меня, который зарегался, покликал, подумал "хрень какая-то, да ещё трафик жрёт постоянно" и закрыл навсегда, или не включая). А аудитория только Андроида наверное уже под три миллиарда.
Ну Spotify здесь собирательный же образ. Есть Google Music (YouTube Music вроде сейчас) с аудиторией с 15+ миллиона подписчиков, Tidal с 3 миллионами, Amazon Music с 55+ миллионами, Deezer с 16 миллионами пользователей/7 миллионами подписчиков. Наверняка есть ещё менее известные национальные в Азии и Индии, допустим.
Даже у Яндекс.Музыки и Вк музыки больше 2 миллионов платных подписчиков, а бесплатных пользователей на порядок больше. Это из того что работает на Android.
Подписчиков Apple Music больше 70 миллионов.
В целом, я уже очень давно (лет 5, не меньше) не видел никого, кто реально пользуется флешкчками и качает музыку с торрентов на телефон, чтобы ее потом послушать. Стриминг сейчас стоит практически ничего (как и мобильный интернет). Ну то есть если у тебя DAC внешний и хочется флака, но жалко денег на HiFi подписку от Tidal то да, придётся морочиться. Если хватает mp3 320 kbit/s или его аналогов — любой стриминговый сервис закроет вопрос с легкостью.
Значит мы не встречались :) С флешечками, конечно, не бегаю, просто синк папки на телефоне с папкой на ноутбуке. С марта, правда, не актуально — акустика лучше на ноутбуке
акустика лучше на ноутбуке
Это точно, я бы запомнил человека, который может без вреда для психики и ушей на ноуте музыку слушать :) Оно же отвратительное примерно везде.
синк папки на телефоне с папкой на ноутбуке
А, ну у нас совершенно разные юзкейсы.
К окончанию периода, когда я локально хранил музычку, объем коллекции у меня уверенно перевалил за 100Гб (flac конечно, какой смысл хранить mp3, раз уж качаешь), а количество устройств стало больше двух. У меня достаточно разнообразный музыкальный вкус, чтобы коллекция пухла достаточно быстро и я иногда что-то рендомное из нее слушал, причем я сам себе заранее сказать даже не могу что это будет, чтобы подготовиться, то есть сильно желательно все всегда иметь с собой.
К примеру сейчас любое решение про локальный сторадж будет просто очень сложным. Куча устройств (десктоп, телефон, планшет, ресивер), плейлисты непонятно как переносить, желание послушать что-нибудь эдакое за рулем в дали от дома, просто физические проблемы с синком нескольких сотен гигабайт (ну или даже пары десятков, если заморочиться рекодингом, но это опять же время и гемор). Не, можно конечно айфон на полтерабайта купить и заливать в него (ну или другой телефон), но это надо помнить, синкать, тратить время на поиск и отслушивание новой музыки, потом качать, складывать это куда-то. Да ну нахрен, оно даже на 10% не так удобно, как со стримингом.
Ну я не меломан, да, как вы поняли, устройства только два, на древнем телефоне 128 Гб памяти, почти ничем иным, кроме mp3, не занятой. Пока вполне устраивает.
Онлайн сервисы пробовал, но всего интересного не нашёл, а своё только вк позволял закачивать
Локальный стрим сервер дома должен помочь.
Ну, если не учитывать время и силы, которые нужны на то, чтобы все это админить, то:
1. Диски не бесплатные. А надо два как минимум, обидно потерять коллекцию.
2. Электричество небесплатное но ок, пусть оно живет на основном компе и представим что там есть место для дисков (так себе затея конечно, не поковырять, не сломать, но ладно).
3. Интернет без static IP и ассиметрик (другого для физиков не продают), оно конечно в целом будет и на 60 мегабитах шевелиться (если какой синк не запустится и не выжрет исходящий канал), но учитывая дабл-нат есть шанс огрести проблем.
4. Внезапно хороший софт для домашнего стрим-сервера тоже стоит денег. По крайней мере стоил, когда я последний раз этим всем интересовался.
Используете спотифай/Deezer/whatever как радио
Радио с поганым качеством, кстати. На бесплатных тарифах там и качество 128 или ниже, и реклама еще. А если с нормальным — все равно платить, смысл тогда всей затеи?
нет «Can't play this track by any reason».
Я такого почти никогда не встречал за пределами СНГ, то есть оно по сути проблемой не является.
К примеру сейчас любое решение про локальный сторадж будет просто очень сложным.нууу… 2Tb музыки, по inotofy конвертится в opus для смартфона, сконверченное забирается по wifi время от времени руками на смартфон. С появлением bluetooth наушников надобности иметь музыку на других мобильных устройствах больше нет, на планшете фильмы закачаны в дорогу, на телефоне — музыка, а наушники подключены и туда и туда. По новой музыке — мне её сейчас сильно меньше надо, времени в год на это уходит немного, зато я делаю это вдумчиво, и обычно открываю для себя новых исполнителей, слушаю всю дискографию, оцениваю… а сервисы обычно предлагают конкретные треки. Так-то на yutube посмотрел один клип — и он тебе тут же похожие покажет, начать искать новое можно быстро отсюда.
YouTube Music
Эта зараза то убивает песни, долго собираемые в плейлист, то "не доступно в вашем регионе", то плейлист становится на паузу, потому что "18+, я понимаю и хочу продолжить", то рандомно вылетает с плейлиста на какую-то ей возомнившуюся хрень, то подсовывает полные альбомы одним файлом без деления на главы даже, то часовые миксы…
Единственное, что сделали хорошо — это возможность переключения видео/звук.
И то, по дефолту оно в видео…
ВК и яндекс урезали возможности прослушивания незарегистрированым.
В общем, с локальной коллекцией все это конкурирует как-то ну очень слабо. Разве что как вынужденная замена радио.
Другое дело, что многих устраивает просто чтобы что-то как-то звучало.
Но это не те люди, которые будут что-то качать =)
Эта зараза то убивает песни, долго собираемые в плейлист, то «не доступно в вашем регионе», то плейлист становится на паузу, потому что «18+, я понимаю и хочу продолжить», то рандомно вылетает с плейлиста на какую-то ей возомнившуюся хрень, то подсовывает полные альбомы одним файлом без деления на главы даже, то часовые миксы…
Вполне возможно. Последние 4 года сижу на семейном Deezer, после переезда в европу купил еще Spotify себе лично, алгоритмы там больше нравятся. Жена вот дизером пользуется. До этого да, был и apple music, и google music. У эпла алгоритмы говно, у гугла тоже говно, но не такое фатальное.
ВК и яндекс урезали возможности прослушивания незарегистрированым.
Яндекс.музыка работает пока не пересечёшь границу.
Ну Spotify здесь собирательный же образ. Есть Google Music (YouTube Music вроде сейчас) с аудиторией с 15+ миллиона подписчиков, Tidal с 3 миллионами, Amazon Music с 55+ миллионами, Deezer с 16 миллионами пользователей
Захожу я на всё перечисленное, пытаюсь найти треки вокалоидов, которые слушаю — а их нет. И заботливо рипнутых с ютуба каверов тоже нет. И еще много чего нет из того, что заботливо качалось на винт годами (оно потому и качалось). Есть в основном лишь популярное и мейнстримное.
Есть конечно ВК, в который я и другие пользователи заливают подобное, но он периодически хочет, чтобы мейл.ру заплатили донатной монетой (даже в кастомных клиентах).
А еще мир не ограничивается США с гигабинтым интернетом — в моей прекрасное стране хватает мест с нулевым сигналом мобильной сети — даже смс не всегда отправляются. Какие уж тут стриминговые сервисы. А вот с флешки нормально играет.
Юзкейс «подключить смартфон к компу чтобы что-то скинуть и потом там открыть» — не такой уж редкий среди простых пользователей. И когда для этого надо отдельный софт чисто под скидывание, а потом еще шаманство для открытия — это уже не то, «что можно не задумываясь делать».
А еще мир не ограничивается США с гигабинтым интернетом
Вы не очень правильно себе США представляете. Там на самом мест, где нифига нормально не ловит и интернет через DSL больше, чем во всем СНГ вместе взятом. И безлимиты (даже кабельные домашние, про мобильный интернет я вообще молчу) далеко не везде и не всегда доступны. По средней скорости доступа и финансовой доступности (а так же вообще по доступности безлимитов, в том числе мобильных) страны экс-СССР на лидирующих местах в мире. Хотя даже в той же Польше, где я живу, есть только один оператор, который предоставляет один (!) тариф для бизнеса, который еще хрен найдешь, в котором есть мобильный безлимит, который вроде как дейсвительно безлимит и физику его купить анрил. А самый жирный абонимент, который предлагается за 1.5 тысячи рублей предполагает 75 Гб на симку в месяц на нормальной скорости, дальше шейпер и мегабит. Ну или можно за 400 рублей купить услугу безлимита для медиасервисов и социалочек, туда весь стриминг входит.
Тем не менее, даже этого вполне хватает совершенно без проблем весь месяц слушать музыку по несколько часов не страдая от недостатка трафика.
Захожу я на всё перечисленное, пытаюсь найти треки вокалоидов, которые слушаю — а их нет. И заботливо рипнутых с ютуба каверов тоже нет.
Да, вот это правда, с народным творчеством там туговато и если хочется именно его, то вариант со стримингом действительно не вариант.
По средней скорости доступа и финансовой доступности (а так же вообще по доступности безлимитов, в том числе мобильных) страны экс-СССР на лидирующих местах в мире.
Есть мнение, что это следствие лидирующих с конца мест СССР в мире по телефонизации и кабелетелевизации.
Вы не очень правильно себе США представляете. Там на самом мест, где нифига нормально не ловит и интернет через DSL больше, чем во всем СНГ вместе взятом.
Если всё реально так, то на фоне этого меня еще больше поражает тот факт, что все инсталляторы (особенно проф.софта вроде той же Visual Studio) от американских компаний превращаются по сути в лаунчеры-загрузчики, без дистрибутивов для оффлайн-установки… На кого они рассчитаны?)
На самом деле это даже удобно, можно сесть за любой комп да хоть в бухгалтерии и буквально через сколько-то минут работать.
UPD: да, прямо в коридорах возле кухни и курилки стояли компы, народ постоянно что-то друг другу показывал.
Погодите, на YouTube Music нет музыки с YouTube?…YouTube Music……с ютуба каверов тоже нет.
могу ли я как простой пользователь просто подключить iPhone по USB к рандомному ПК на Windows (без тунца) — как флешку — и закинуть туда свои книжки с флибусты и свою музыку, которую я заботливо отсортировал по папкам (а не по тегам и прочим пожеланиям тунца), и потом так же легко как на пк или Andoid её по папкам воспроизвести?
Нет, потому что простой пользователь айфона это не делает. У него подписка на Apple Music или че-то еще, и там «просто уже есть» вся музыка, что этому простому пользователю нужна. А если чего нет — подписка меняется на аналогичную по цене в другом сервисе. В следующем айфоне, по слухам, вообще не будет разъемов, зарядка бесконтактная будет, кабель для передачи данных уже давно никто не подключает. Скачивание — это уже удел гиков, простые пользователи смотрят и слушают прямо с интернета по подписке.
Быстрая софтовая смерть. 5-7 лет в зависимости от модели и Apple перестает обновлять ОС для вполне живого ноутбука.
Посмотрел описание последней(вышла пару недель назад) операционки, поддерживает ноутбуки 2013 года и новее. Получается 7-8 лет минимум.
Все последние макбуки уже много лет хуже работают под Windows и Linux из-за отсутствия профилей питания для процессора, от чего он перегревается, работает медленее и меньше по времени (от батареи).
странно. а где же великая х86 переносимость? Винда работает нативно, а профилей нет.
Помню как раньше Apple продвигали свои отвратительные интерфейсы (FireWire, Apple Display Connector и прочая дичь) и везде их ждала неудача.чё-то вы забыли про USB
странно. а где же великая х86 переносимость? Винда работает нативно, а профилей нет.
Питанием управляет другая микросхема, драйвера и профили для которой Apple не предоставляет. Сделано это, конечно же, специально, чтобы макбуки работали нормально только с MacOS.
чё-то вы забыли про USB
USB продвигает USB-IF с Intel во главе
Питанием управляет другая микросхема,какая? разве это не через мосты идет?
Сделано это, конечно же, специально, чтобы макбуки работали нормально только с MacOS.может быть потому что у винды нет режимов которые есть в macOS, например, powernap?
USB продвигает USB-IF с Intel во главе
ниже указали, что Apple Inc.'s iMac was the first mainstream product with USB and the iMac's success popularized USB itself.
s1 — Video Backlight Off / HDD Off
s2, s3 — cpu off
вопрос — когда приходит письмо и его надо сохранить на диск. что делать? полностью будить комп и переводить в s1?
Функция Power Nap, доступная на компьютерах Mac с флэш-памятью, позволяет некоторым компьютерам Mac автоматически обновлять информацию даже в режиме сна. Когда Mac переходит в режим сна, периодически активируется режим Power Nap для обновления информации. Обновляемая информация зависит от того, работает ли Mac от аккумулятора (ноутбук Mac) или подключен к адаптеру питания (ноутбук Mac или настольный компьютер Mac).
Когда компьютер Mac работает от аккумулятора и находится в режиме сна, Power Nap выполняет следующее.
Проверяет наличие новых сообщений в Почте
Обновляет события в Календаре
Обновляет другие события iCloud
Когда Mac подключен к адаптеру питания, Power Nap может также выполнять такие задачи, как загрузка обновлений программного обеспечения и создание резервных копий Time Machine.
вопрос — когда приходит письмо и его надо сохранить на диск. что делать? полностью будить комп и переводить в s1?Mac конечно так и делает, сюрприз, переводит в S0.
У вас S1 не то, у монитора свои отдельные состояния.

какая? разве это не через мосты идет?
Давайте вы покажите инструкцию х86, которая занимается этим, чтобы не быть голословным.
может быть потому что у винды нет режимов которые есть в macOS, например, powernap?
Вы не понимаете о чем говорите.
ниже указали, что Apple Inc.'s iMac was the first mainstream product with USB and the iMac's success popularized USB itself.
Ага, с долей рынка менее 1% (на конец девяностых).
Про телефоны я вообще молчу — тянет до последнего, пока совсем не отомрут.
По всем остальным пунктам полностью согласен.
Большинство фирм начинают что то делать только в случае реальной угрозы своему существованию (удачно или нет это отдельный разговор).
Сейчас у интела нет другого пути, измениться или умереть.
Денег у них много и могут замутить очень суровые проекты.
Я как исследователь, обращаюсь в компании — создал новые вещи, внедряйте.
В спокойные времена получаю один ответ: Нам ничего кардинально нового ненужно, нам и на наших традиционных рынках хорошо.
Сейчас наступает мое время — готовьтесь- мало не покажется ))))
Как бы напомню в чём был успех платформы PC и почему Apple в своё время практически загнулась. PC — открытая модульная концепция. Открытые стандарты, по которым могут делать разные производители, тут и разнообразие, и конкуренция, и объём. Если за новыми процессорами не будут приходит публичные стандарты, по которым могут делать что-то сторонние производители, то мало что сильно распространиться.
Apple зарабатывает на сервисах и магазине. Sony (PS), Microsoft (X-Box/WinStore/Azure/Office 35), Google (сервисы), а остальные в пролёте на этом празднике жизни. Либо уходить, либо довольствоваться низкомаржинальными продажами «готовых устройств» под чужую дудку.
Я думаю, и раньше, законченное устройство, куда более привлекательно выглядело, чем конструктор. Просто, есть люди, которые любят под себя затачивать. Как и специфические задачи никуда не денутся, которые требуют гибкой конфигурации системы. У Apple же, как видно по последним продуктам, противоположная концепция: уменьшение кастомизации.
Уже неоднократно за последние пару лет встречал людей, у которых возникала проблема при прошивке роутера на первом же пункте "подключитесь к роутеру по проводу". У них банально не было ни компьютера, ни ноутбука.
Или провода достаточной длины. Кабель от провайдера в прихожую заведён, десктоп на противоположном конце квартиры
люди были счастливы просто иметь компьютер в карманеПока шло это «осчастливливание», долго не мог понять, причём тут iPhone, особенно имея немалый опыт пользования карманными компьютерами на платформах Newton, Psion, PocketPC и Maemo. Тут, наверное, дело не в компьютере, а в сети: интеграция с телефонным номером с использованием его для идентификации, расцвет социальных сетей и перенос хранения контента в сеть.
Как же жили в мои молодые годы до появления айфонов и быстрого мобильного интернета?) Вроде, норм было всем… Обходились без этого
Идентификация по номерам сотовых, особенно обязательная, пришла всё-таки на 4-5 лет позже выхода первого iPhone. Мне кстати ещё любопытно, почему в те годы не взлетели смартфоны с кнопками. Неужели их использование было настолько неудобным по сравнению с сенсором?
Напомню: нажимаешь кнопку поднятия — девайс тупит N секунд. Нажимаешь отбой — аналогично. Пропущенные звонки из-за зависшего радиомодуля?) Ха-ха. Опаздания на работу из-за будильников — да как здрасьте.
А так их было куча — заместо выбывших приходили новенькие — QTek (HTC), Samsung, Asus, Acer, в самом экономе были Gigabyte, еще дешевле — в России — были Rovio. Все клепали коммуникаторы в достаточном разнообразии.
А нетупящих надёжных моделей не было ни у кого из вендоров? Просто лично я пользовался только HP, за всех говорить не могу. Из явных косяков помню только два: постоянное сбитие точности калибровки экрана и смерть аккумулятора, если долго не заряжать устройство. Это буквально превращало девайс в кирпич, и иногда дале установка полностью новой съёмной батареи не спасала сразу, нужно было как минимум долго ждать, пока зарядится внутренний резервный аккумулятор.
Причем Pentium с оговорками — параллельно с самыми первыми Pentium, Intel параллельно запускала новые модели 486 в нише более дешевых.
Pentium MMX же одно время шел параллельно первым pentium II, и занимал ту нишу в которой потом вышел Celeron
Но автор статьи таких подробностей не знает. И много ещё чего.
Аргумент, что
Если Apple сохранит или улучшит свои позиции по отношению к Intel и AMD, это заметят и другие компании с лицензиями на ARM
Выглядит сомнительно хотя бы потому, что Qualcomm еще весной 2019 тут писала
о своем процессоре для ноутбуков, да только тогда у них видимо не особо получилось, откуда в таком случае уверенность, что получится сейчас?
Падение Intel от короля индустрии к наблюдателю началось уже в 2005 году: несмотря на то, что у Intel имелась лицензия ARM для производства XScale, компания не захотела сосредоточиться на энергоэффективности, а предпочла диктовать дизайн клиентам, таким как Apple, рассматривая их новый iPhone, вместо того, чтобы попытаться приспособиться под них (как это сделала TSMC).
TSMC конечно не диктовала никакой дизайн.
Ибо она им не занимается.
pflfxe
Я уж думал бизнес-рекламный-термин какой…
Столько всего хоронят, то вендекапец, то php умирает, то ещё чего) А на самом деле просто Apple со своей закрытой ос и железом отказалась в силу каких-то причин от intel. Я больше чем уверен что ещё долгие годы процессоры от intel будут устанавливаться и работать во множестве устройств, от простеньких ноутбуков до серьезных машин, а появление M1 если и подвинет этот рынок, то мне кажется не так уж и сильно как говорится в статье. А если уж говорить о линуксах, то сам Линус Торвальдс высказался скептически об M1 https://m.habr.com/ru/news/t/529764/
К тому же, php вполне себе развивается, 7-ая версия хороша, 8-ая тоже показывает довольно интересные нововведения.
Однако, если посмотреть безжалостной статистике в глаза, то Python сегодня представлен 3646 вакансиями в Москве, а PHP — 1542.
Посмотрите, ради интереса, этот обзор за 1 кв 2014 года:
ekaterinburg.hh.ru/article/14828
На секундочку, там у Питона 1,5%, а у Пыхи — 8,3%.
Если представить, что доля PHP не изменилась, то за 6 лет доля Питона выросла больше, чем в 10 раз.
P.S.: не хейтер, время от времени пишу и на PHP и на Python'е, в зависимости от задач.
Tensorflow 120
Pytorch 107
Keras 65
Да, в этом сегменте Пайтон суперпопулярный язык; но гораздо больше людей пишут бэкэнды для сайтов, прикладную автоматизацию, парсеры, ботов, инструменты для DevOps (Ansible), и так далее и тому подобное.
Хорошо так в 2020 году предсказывать за 2005 год. Только контекст нехило вспомнить — 2005 год — как раз осознание фейла с NetBurst и его последователями. Выход с Core 2 был о-очень удачный — десятилетие с лишним тотального доминирования.
Вообще у intel была масса фейлов. Rambus RD-RAM, Itanium, NetBurst (+Northwood, +Prescott), упустили 64-битную архитектуру (amd64), упустили многоядерность, упустили Zen, фейл с Xeon Phi, прозевали мобильную революцию, из древнего — можно вспомнить iAPX 432, не взлетел i80860. Это я только по крупным микропроцессорным фейлам прошёлся. И ничего — утирались, делали выводы, разрабатывали новые продукты.
Чего все взорвались с этим M1, который хорошо себя проявил на распаянной разогнанной памяти в однопотоке? Не, ну Apple, конечно, это не мелочь — это чувствительно, но вот прям сразу "крушение"? Крушение может быть, если Google, AWS, Azure и прочие клауды начнут уходить на ARM (пока это фантастика — скорее на EPIC). Крушение может быть, если массово недорогие и производительные ноутбуки и ПК на ARM начнут делать (не Apple, а остальные). Ну и инерция у Intel огромная, их на поле CPU AMD очень существенно кусает 3 года. И через 3 года всё ещё на серверном и ноутбучном рынке Intel очень прочно держится.
ноутбучном рынке Intel очень прочно держится.
Держится то это да, но на том же реддите буквально страдания о синкпадах на AMD, которые невозможно купить, разбирают на подлёте, а Intel берут только от безысходности или когда нужен Thunderbolt. Я такого вообще не помню, чтобы за определенной платформой так гонялись и она была в таком дефиците.
iAPX432 — процессор, ориентированный на язык АДА
i860/i960/ — RISK-процессоры
В этом свете хотелось бы поговорить вот в чем. Есть такое мнение, и не только у меня лично, что все попытки крупных игроков технологического бизнеса насадить пользователю какую-то идею (поиски т.н. «next big thing») и потом еще десяток-другой лет жить с этого — заведомо обречены на провал. Технологический прорыв прийдет с низу, от потребностей людей, от небольших университетских проектов, от небольших компаний и от open source сообщества (Linux большой тому пример), которые тихо, мирно и постепенно произведут революцию, а не от желаний динозавров продолжать доить своих потребителей. Кто нибудь может вспомнить, когда последний раз слышал что-либо про IBM? А что нибудь произведенное IBM давно видели своими глазами? А ведь IBM на пике своего могущества вкидывал в исследования гигатонны кэша и это не дало ровным счетом ни какого результата (кроме того факта, что 50% всех мировых патентов принадлежит IBM-у). Вот, то же самое будет и с Intel, и вероятно, с Apple как только общество «потеряет веру» в iPhone. Про Apple вообще разговор отдельный — вся их империя держится на чистой вере, не более того.
Я думаю, что понастоящему перспективными являются любые направления, делающие нас (общество) независимыми от конкретного производителя или поставщика технологий или услуг. В этом смысле я хотел бы выделить следующие идеи:
1. Linux десктоп на базе ARM, в том числе одноплатные ПК типа Raspberry Pi, BeagleBone и Pine64. Вышедшый недавно «ПК в клавиатуре» RPi 400 это шаг в нужном направлении. Жду не дождусь, когда какой нибудь SoC на базе ARM по производительности, по энергопотреблению и по цене задвинет Intel и я смогу наконец прибрести себе ноутбук с ARM равной или может быть даже большей производительности чем Core i7. И я думаю, что этот час не за горами.
2. RISC-V — открытая система команд и совместно с ним бурно развивающийся инструментарий разработки микросхем на основе open source уже сейчас делают производство микропроцессоров массово доступным для небольших коллективов, как посредством синтеза вычислительных ядер на ПЛИСах, так и прямое «выпекание» кристаллов — что раньше было доступно только крупным компания с сотнями высокооплачиваемых разработчиков. А это, в свою очередь, открывает бесконечные перспективы к творчеству и изобретению все более и более производительных и доступных по цене рядовому пользователю систем. Как вам, например, 400 ядер RISC-V в одной ПЛИС, каждое с тактовой частотой 360МГц. Вещь специфическая конечно, но каков масштаб? При этом стоимость такой системы — по цене микросхемы ПЛИС «с полки магазина». На RISC-V запускается Linux и очень не плохо себя показывает. Американский стартап SiFive выпустил одноплатку с четырех ядерным RISC-V по проиводительности близкой к ARM Cortex-A55 и продемонстрировал полноценный десктоп с Ubunto Linux на её основе с графикой и youtube-ом разумеется. Ценик на платку пока достаточно высок, так как это всего лишь «демонстрация возможностей», но в три раза ниже чем материнка с процессором Эльбрус.
В общем, я считаю, что нужно всячески поддерживать RISC-V и по возможности отказываться от всего проприетарного или затянутого на одного производителя (Apple, Wintel).
UPD: Ответ checkpoint, не знаю почему уехал мимо.
Linux десктоп на базе ARM, в том числе одноплатные ПК типа Raspberry Pi, BeagleBone и Pine64. Вышедшый недавно «ПК в клавиатуре» RPi 400 это шаг в нужном направлении. Жду не дождусь, когда какой нибудь SoC на базе ARM по производительности, по энергопотреблению и по цене задвинет Intel и я смогу наконец прибрести себе ноутбук с ARM равной или может быть даже большей производительности чем Core i7. И я думаю, что этот час не за горами.
Ну послушайте, байку про распберьки лично я слышу с выхода первой версии и что "оно уже почти заменяет компьютер", однако, как показывает практика, распберька это игрушка для гиков лежащая на полке под слоем пыли. Да, можно заставить на нем страдать своих родителей/супруга/ребенка, однако c2d 2006 года за 3000р с GF710 все еще интересней в качестве тестонабивочной машинки или как компьютер для ютуба, а с SSD там и десятка живет вполне ничего + получаем возможность апгрейда. На что-то большее распберька не способна, монтировать даже простенькое 1080р видео на ней уже мучение. Я конечно тоже хочу себе вариант в клавиатуре, но реальных кейсов для него я не вижу.
Производительность АРМа будет на уровне i7 когда в магазине будут отдельно продаваться матплаты и процы под него, а скачать дрова с сайта производителя я могу просто выбрав архитектуру ARM. Вот тогда начнется и гонка и нормальное движение.
Статья кликбейт. Я в IT с 1997 года и постоянно слышу про интелкапец от их конкурентов. Уже все эти конкуренты давно умерли и имена их забыли, а интелкапец остался. Этот мертворождённый М1 из той же серии. Через 5 лет о нем никто и не вспомнит.
То что она прозевала рынок iPhone, да не приятно, но не критично. Потеряла рынок Mac, эти единицы процентов от рынка ПК, их вообще мало интересовали. Microsoft, тоже похоронила свой проект Singularity конкурент Android буквально за год или два, как тот пошел в массы — Microsoft не умерла.
А насчет технологических новаций, у Intel есть в багаже FPGA, и они их активно двигают в серверном сегменте. В этом направление тоже возможен прорыв.
Я так понял, в компании которую представляет автор, там не то что компетентных специалистов нет, для этих платформ, там даже не знают об таком направлении.
А это уже серьезная проблема для облачного провайдера, когда его предел технических мечтаний — это выкатить AMD сервера, пока они выигрывают по цене с Intel.
Могли бы предложить ARM сервера, чисто для наработки опыта, а то так техническая революция пройдет мимо, пока похоронки будете выписывать IT гигантам.
б) ARM-процесоры не от Apple не такие быстрые по тестам
в) Не все производители ARM-процессоров способны сделать такой быстрый чип
г) Майкрософт не слезет с x86 пока ARM-процессоры не такие быстрые
д) Пока Майкрософт не слезет с x86 компаниям Intel и AMD нечего бояться
Итог: Интелкапец отменяется.
д) Пока Майкрософт не слезет с x86 компаниям Intel и AMD нечего бояться
Майкрософт уже старается не быть синонимом x86. Продажи пк лет 8 падают, ноутбуки стали заменяться планшетами. Остаются серверы. Даже если они не перейдут на arm, эти деньги — остатки былой роскоши для intel и amd. Так что на майков им явно не стоит рассчитывать.
Ну и продажи ПК падать могут не по причине перехода всех на смартфоны и планшеты, а по причине банального насыщения рынка.
На счёт Майкрософт — не быть синонимом x86 она может хотеть, но экосистема софта под Винду выстроена на x86 платформе. Такую систему не просто будет перевести на ARM.
Планшет не средство ввода информации, а для подавляющего числа работ нужен ввод информации.
Так в том-то и дело, что ютубчик, вк, одноклассники, инста и т.п. — для этого достаточно планшета или телефона. Компьютер уже не обязателен в каждом доме. У меня недавно спросили, где аппстор на винду? Это один из показателей, что пк (а собственно и windows) не нужен пользователям.
Планшеты можно обновлять раз в 5 лет, а то и больше для фильмов и серфинга пойдут. Раньше интерфейс винды и пк всем был привычен, поэтому майкрософт чувствовал себя королем, теперь же, если дадите юзеру хромбук или макбук, через пару дней он почувствует себя как рыба в воде, т.к. почти так же, как и в смартфоне всё. С виндой такое уже не прокатывает. Microsoft уже чуть-ли не насильно перетягивает всех на кроссплатформенный office 365 (вроде как офис и облака у них ключевой источник дохода).
На счёт Майкрософт — не быть синонимом x86 она может хотеть, но экосистема софта под Винду выстроена на x86 платформе. Такую систему не просто будет перевести на ARM.
Их экосистема медленно сдает свои позиции и становится нишевой. Если эплу удасться убедить всех в том, что ещё и final cut, photoshop со всеми продуктами на арме — это замысле самого всевышнего, то ждем всплеска устройств на Windows 10 ARM.
У меня недавно спросили, где аппстор на винду?
www.microsoft.com/ru-RU/store/apps
Микрософт повторяет за Яблоком, как и раньше было.
Их экосистема медленно сдает свои позиции и становится нишевой.
Это — сознательный выбор руководства Микрософт.
www.microsoft.com/ru-RU/store/apps
Микрософт повторяет за Яблоком, как и раньше было.
Пользователи перестали пользоваться виндой и уже применяют свой опыт работы со смартфоном на десктоп. Т.е. основная «фишка» винды (сделать её привычным окружением) утеряна. Теперь, сделав интерфейс андроида, можно всех бухгалтеров, хоть на chrome os сажать. Всё же так же, как в телефоне. Софт, благодаря, действительно, огромному рынку, подтянут. Посыл был такой.
Это — сознательный выбор руководства Микрософт.
Так только на x86 денег много не заработаешь. Всё правильно.
Так только на x86 денег много не заработаешь. Всё правильно.
Маленькая проблемка есть — называется энтерпрайз. Расскажите пожалуйста — когда к примеру Microfocus переведет свое (нет) поделие на ARM?
Не все производители ARM-процессоров способны сделать такой быстрый чип
Это в каком смысле? Не могут спроектировать или не могут по готовым "чертежам" того же Apple изготовить такой быстрый чип?
Я к тому, что в мире ARM сильно распространено разделение труда: одни процессоры проектируют, а другие производят. Собственно с эппловскими ровно то же: проектируют сами, производство на аутсорсе.
А причём тут ARM? AMD вот тоже fabless компания и ничего, прекрасно живут.
Не все производители ARM-процессоров способны сделать такой быстрый чип
Я лишь уточнял, что имеется в виду. Не все способны сделать или не все способны спроектировать.
Угу, не могут удовлетворить спрос, чуть ли не полгода вперёд всё распродано уже.
И? Как это относится к проблеме с "чертежами"? (Не говоря уже о том, что там гарантированно ещё патентами присыпанно).
ATI — помните такую?
3Dfx
3Dfx была злонамеренно уничтожена «эффективным» менеджером.
Transmeta, Cyrix, NexGen, Centaur, SiS, S3, Diamond, Gateway, ULi, ALi, Hercules, Tseng Labs, Aureal,…
Много их полегло.
VIA сильно уменьшилась.
Nvidia, которая купила ARM
уже?
А по сути. Ждал появления эпиков с набортной памятью HBM, Интересно появятся ли?
«Довольно слабо на фоне Ryzen 7 5800X смотрятся и процессоры Intel. Даже 10-ядерный флагман Core i9-10900K уступает новому восьмиядернику с микроархитектурой Zen 3 во всех сценариях PCMark 10.»
3dnews.ru/1026573/obzor-amd-ryzen-7-5800x/page-2.html#%D0%9F%D1%80%D0%BE%D0%B8%D0%B7%D0%B2%D0%BE%D0%B4%D0%B8%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D0%BE%D1%81%D1%82%D1%8C%20%D0%B2%20%D0%BA%D0%BE%D0%BC%D0%BF%D0%BB%D0%B5%D0%BA%D1%81%D0%BD%D1%8B%D1%85%20%D1%82%D0%B5%D1%81%D1%82%D0%B0%D1%85
Graviton.
Ещё 5 лет назад Amazon купил одну израильскую компанию, разрабатывающую ARM-процессоры. Всё-таки у Амазон в их расходах на хостинг-центры немалую долю составляет закупка оборудования.
Вот в 2018-ом году на AWS Summit уже и были анонсированы первые Graviton-ы, ARM-процессоры для серверов (а ещё и Inferentia, какие-то системы именно для алгоритмов обучения).
А в 2019-ом – Graviton2. На архитектуре Arm Neoverse N1, именно ориентированном на серверы варианте Arm.
И сейчас инстансы с этими Graviton2 понемногу появляются и для платформенного использования («как виртуалки»),… но и для software-as-a-service (например, Amazon RDS – когда пользователь получает «СУБД как услугу»).
И вот тут уже стоило бы забояться ещё больше. Дорогие (но известные) ноутбуки — это одно. А массовый хостинг, в котором вместо «дебиана на интел» можно запустить «дебиан на арм» и (возможно) обнаружить, что нужную тебе производительность ты получаешь за меньшие деньги — это очень опасно. А когда ты даже не должен разбираться с особенностями архитектуры, а получаешь «одну и ту же СУБД, но на твой выбор или на интеловском процессоре или на ARM» – то переключиться с интел на арм и обратно становится совсем просто.
И это ещё вопрос, с чего на что переключаться — в списке «инстансов с оптимизированной памятью», например, инстансы на Graviton2 стоят вообще по умолчанию.
И вот тут, если вдруг окажется, что пользователям Amazon AWS Graviton2 вполне нравится – тут уже речь пойдёт о том, что Amazon перестанет закупать серверные процессоры в таком количестве. И влияние на доходы Intel будет не менее заметным.
Заголок слишком хайповый, хотя до развязки очень далеко и выводы делать рано. Да — интел сглупила, но при её финансах и доминируещем положении на рынке — ещё не поздно всё переиграть. Вон АМД кучу лет пасла задних, потом напряглась и вот видим уже в топе. Так что, я бы так категорично не загадывал, потому как очень глупо ожидать со стороны интел пассивного ожидания, видя присходящее. Думаю, что через 2-3 года мы увидим неслабый ответ от интел и вполне возможно как раз на мобильном рынке.
Фактически Apple взяла и сваяла процессор без «legacy» и для него нужно «дорабывать напильником» софт с «обычного ARM».
Не настолько же все вокруг идиоты, что бы не использовать что-то из уже известного или комбинации из известных приемов? Полагаю, кто-то уже давно бы развил сходную производительность.
Единственное, что приходит в голову, это оптимизаиция на уровне компилятора, под конкретный процессор. И одновременная оптимизация процессора, под используемые шаблоны исполняемого кода.
Был ли где-то анализ — чем отличается скомпилированный код для M1 и «обычного ARM»? Или как исполняется на уровне команд, предсказания, попадания\промаха в кеш и т.д.?
Если этот правильно понимает, то с точки зрения системы команд — абсолютно ничем (если не считать проприетарные специализированные блоки).
Но у него 8 декодеров на входе, соответствующее количество Execution Units, ReOrdering Buffer на 600+ op's, гигантские кеши (L1/L2 тех же размеров, что и L2/L3 у Zen+) и быстрая широкая память на той же подложке. И это наверняка еще не все микроархитектурные отличия.
В общем, он сильно заточен под то, чтобы быстро получать и обрабатывать инструкции и данные в большом количестве.
А по системе команд он полностью совместим с соответствующим семейством.
Вот тут в статье очень хорошее объяснение "на пальцах": https://news.ycombinator.com/item?id=25257932
Вы статью по ссылке открыли вообще? Там простыми словами пытаются донести технологические преимущества микроархитектуры CPU, разработанной Apple. Как именно у них получается выполнять на десятки процентов больше инструкций на такт в сравнении с последними x86.
А вы что находите в ответ? Кривой пересказ предисловия этой же статьи сводящийся к "Ну там сопроцессоры, нечестно."
А вы что находите в ответ? Кривой пересказ предисловия этой же статьи сводящийся к «Ну там сопроцессоры, нечестно.»
По Вашей ссылке «простынка», по этой ссылке «выжимка» на пол экрана «каким путем пошли». А «честно» или нет, я не заметил мнения. В чем проблема? Мне, например, нет сейчас времени разбираться с точность до «килобайта» в размерах кешей и количестве конвейеров. Будет время — на выходных внимательно прочитаю Вашу сслыку.
AMD серверные процессоры с ARM-овым декодером лет 10 назад стала разрабатывать — и что? Технически это вообще не проблема — тогда вопрос на засыпку: в чем же проблема? :)
Просто рисковая ставка на увеличение процессора в ширину, которое до этого почти всегда приводило к росту энергопотребления. Просто reorder buffer в 3 раза больше конкурентов и алгоритмы, способные выжать из него пользу. Просто лучше branch predictor https://twitter.com/andreif7/status/1307645405883183104
Ничего особенного, просто никто другой в индустрии такого сделать не может.
Через 5 лет и Apple не будет стоять на месте. Но да, только будущее покажет.
Меня раздражает, как некоторые люди отмахиваются от многолетней инженерной работы, которая наконец начала давать существенные плоды, комментариями типа "Ничем принципиально M1 не отличается от других процессоров. Все то, о чем понаписано по ссылке, было изобретено еще в конце 1980-х."
Современные процессоры — фантастически сложные устройства, разрабатываемые в жёстких рамках физических, алгоритмических, финансовых и просто человеческих ограничений.
И тут приходит такой "эксперт" и высказывает своё "ценное мнение", что тут просто техпроцесс получше купили и память разогнали, а так ничего особенного.
Что касается того, что никто другой в индустрии такого сделать не может — это неправда. Western Digital, например, скупил у Оракла всю команду разработчиков OpenSPARC для своих новых RISC-V — я уверен, что они могли бы сделать такое. Интел мог бы, АМД мог бы, Самсунг мог бы, Квалкомм мог бы, ХайСиликон мог бы. Просто это дорого, и кроме Эппла никто не смог бы такой процессор монетизировать. Здесь уже маркетинг и экосистема важнее.
Проблема в том, что в среднем в обычном general-purpose коде всего четыре-пять команд между соседними командами ветвлений/переходов. И можно параллельно декодировать хоть 100, но КПД будет как у паровоза (если только это не спецпроцессор для DSP или AI).
Но мы видим на реальном коде, что M1 работает практически со скоростью топовых Zen 3, только потребляет 5 Вт на ядро. Так что КПД получился куда лучше, чем у любых конкурентов.
Да, глубина reorder buffer-а меняется одной строкой в коде
Ахаха. А как заполнять его, менять очерёдность команд и шедулить по исполнительным блокам та же строка кода придумает.
Western Digital, например, скупил у Оракла всю команду разработчиков OpenSPARC для своих новых RISC-V — я уверен, что они могли бы сделать такое. Интел мог бы, АМД мог бы, Самсунг мог бы, Квалкомм мог бы, ХайСиликон мог бы.
Вас послушаешь, так все "могли бы", но не сделали. Samsung пытался некоторое время назад, и свернул направление. А они на своих фабриках печатаются, и смартфонов больше Apple выпускают.
Просто это дорого, и кроме Эппла никто не смог бы такой процессор монетизировать.
Что именно дорого? Можете привести расчёты, насколько именно дороже сделать ядро шире? И почему это не оправдывает конкурентного преимущества: снижения энергопотребления в 3-4 раза?
Если бы AMD выпустил такой процессор, Intel в лаптопах просто перестали бы покупать совсем.
2. Ну если у вас есть процессор, который УЖЕ умеет все это, просто для трех команд в параллель, то как вы думаете, сложно ли переделать его, чтоб он делал то же самое для восьми? Ответ: это просто. Сделать так, чтоб при этом он не стал работать медленнее и жрать сильно больше — гораздо сложнее. Верифицировать это все — еще сложнее (но не думаю, что Эппл покажет Errata на этот чип :D )
3. Подождите, причем здесь смартфоны? Мы говорим про НОУТБУЧНЫЙ проц! Не видел ни одного хипстера в кофейне с самсунговским ноутом
4. Разработка дорогая. Один американский инженер стоит им как минимум $120к в год. Думаю, они делали этот чип минимум 2-3 года. Сколько народу работало — 100 или 1000 — я не знаю, но можете прикинуть сами. Плюс новый техпроцесс, который завсегда подкидывает проблем. Если бы AMD выпустил такой процессор, на нем должен был бы работать Windows и все игрушки.
1 По вашей же ссылке есть комментарий
Этот комментарий не стоит ничего без ссылок на измерения.
i7-1165G7 бустится до 50 Вт при однопоточной нагрузке, а при ограничении потребления до 15 Вт вообще печален.
Ryzen 4800U при многопоточной нагрузке начинает обходить M1 только при 26 Вт и 12 потоках на 8 ядрах. Напомню, M1 имеет только 4 производительных ядра, и потребляет 15 Вт.
2 Ну если у вас есть процессор, который УЖЕ умеет все это, просто для трех команд в параллель, то как вы думаете, сложно ли переделать его, чтоб он делал то же самое для восьми? Ответ: это просто.
Это становится далеко не так просто, когда команды переменной длины (врождённый недостаток x86 в сравнении с ARMv8). А алгоритмы реордеринга становятся экспоненциально сложнее с ростом буфера и количества исполняемых блоков, если вспомнить, что они должны отрабатывать за единицы тактов.
Сделать так, чтоб при этом он не стал работать медленнее и жрать сильно больше — гораздо сложнее.
Собственно, Apple это и сделала.
3 Подождите, причем здесь смартфоны? Мы говорим про НОУТБУЧНЫЙ проц! Не видел ни одного хипстера в кофейне с самсунговским ноутом
Apple начала делать широкую микроархитектуру на смартфонных чипах, много лет назад. M1 появился как следствие.
4 Разработка дорогая. Один американский инженер стоит им как минимум $120к в год. Думаю, они делали этот чип минимум 2-3 года. Сколько народу работало — 100 или 1000 — я не знаю, но можете прикинуть сами.
Т.е. вы намекаете, что ни у кого в мире нет такой сильной команды инженеров, как у Apple? Да, это вполне вероятно. Именно это я и имел в виду под "никто другой в индустрии такого сделать не может".
Вам осталось только ответить на ваш же вопрос:
AMD серверные процессоры с ARM-овым декодером лет 10 назад стала разрабатывать — и что? Технически это вообще не проблема — тогда вопрос на засыпку: в чем же проблема? :)
Вот, кстати, их ускоритель AI на том же чипе — это уже другие кубики, какие-то треугольные.
бульдозер собрали из кубиков. А вот райзен уже ковыряли более глубоко.
Для понимания подобного мне хватило курса в инсте по разработке АЛУ ("проц" без декодера и кеша, почти что Z80 :) ) плюс радиотехника (понимание схем и как оно всё работает).
Из "кубиков" собрать можно, но это часто будет больше, жирнее, тормознее, с бОльшим потреблением… А вот объединение разных функций в одной схеме даст уменьшение количества компонентов, потребления, задержек… Это если упрощённо.
Ещё аналогия — в программировании копипаста и простыня кода в main vs собственная архитектура с использованием циклов и функций — разный размер кода, производительность, поддержка… Много чего.
И ещё, что нервирует — фреймворки в вебразработке. Тоже кубики.
но и увеличение процессора «в ширину» не ново под луной.
Электромобили появились в 19 веке.
А вы попробуйте сделать frontend с шириной 8. Intel/AMD тут и рядом не стояли. IBM может такое сделать в своих 200-300W печках.
Но в ядре с потреблением 4-6W не может.
При увеличение ширины запуска сложность соединений растёт очень быстро (квадратично).
четыре-пять команд между соседними командами ветвлений/переходов
Данные «в среднем по больнице» не интересны. Основное время код проводит в циклах.
Да, глубина reorder buffer-а меняется одной строкой в коде (да и вообще, в процессоре изменение одной строки его кода может увеличить площадь в несколько раз — так, к сведению).
Вот дураки — то в Интел и AMD. Не могут 1 строчку поправить :)
А ещё и кэши не могут увеличить как у Apple. Ведь это 1 строчка в коде(с)
Как сидели в 2003 с Pentium-M, так и сейчас сидят на 32/32 (L1I/L1D) в Comet Lake.
Ничего, что размер структур напрямую влияет на энергопотребление и задержки? ARM не любит большие ROB, потому как это заметно ухудшает энергоэффективность.
Apple, в отличии от всех остальных может делать большие структуры, которые быстро работают и при этом энергоэффективны.
всю команду разработчиков OpenSPARC для своих новых RISC-V — я уверен, что они могли бы сделать такое
Не смогли бы. Sparc всегда был днищем в микроархитектурном плане. Они так и не осилили нормальный OoO. Клепать микроконтроллеры для SSD — вот эта задача по зубам.
Интел мог бы, АМД мог бы,
Так чего же не сделали?
Самсунг мог бы,
Самсунг очень пытался, вливал бабло, но не смог не по производительности догнать Apple, ни тем более по энергоэффективности. Их продукты проигрывали даже стоковым ядрам ARM.
Итог: Команду уволили. (Команду которая до этого делала энергоэффективные ядра в AMD)
Квалкомм мог бы,
Смешно. Они заказывают модифицированный по их ТЗ стоковый дизайн у ARM.
У них и разработчиков ядер уже и не осталось поди.
Команду, которая занималась (серверными) кастомными ядрами давно уволили.
ХайСиликон мог бы.
Их собственное ядро и до старых ARM-овским стоковых ядер не дотягивает.
Прежде чем фантазировать о том чтобы достать до Apple, достали бы до ARM сначала.
Кроме упомянутых выше есть Ampere(AMCC), Marvell (Cavium(Broadcom)) — имея опытные команды с многолетним опытом они так же сдались. Идею о собственных ядрах пришлось забыть, а инженеров уволить.
Есть ещё nVidia, которая тоже не снискала успехов на этом поприще.
Итог такой: Apple сейчас State of Art. Никто и близко не подобрался по производительности на такт. Ждём Nuvia.
А "ХайСиликон" разве не полным составом перешли в хуавей?
А вы попробуйте сделать frontend с шириной 8. Intel/AMD тут и рядом не стояли. IBM может такое сделать в своих 200-300W печках.
Но в ядре с потреблением 4-6W не может.
При увеличение ширины запуска сложность соединений растёт очень быстро (квадратично).
И в чем конкретно проблема сделать frontend с шириной 8? Делаем шину в L1 I-cache шире, 512 бит или 1024 бит — сколько не жалко. Добавляем декодеров, и вуаля. Ах да, компилятором анроллим все циклы, чтоб было чем загружать execution units, что увеличивает размер кода в разы и трэшит нам L1 I-cache. Бинго! Не удивительно, что у них >=192кБ L1 кэша для команд. Про IBM смешно, если б у них стояла задача сделать чип для лаптопа, то 300-ваттная печка превратилась бы в 15-ваттную путем замены одной библиотеки стандартных ячеек на другую — пара месяцев работы (работала бы медленнее, да).
При увеличение ширины запуска сложность соединений растёт очень быстро (квадратично).Это не critical path, так что пофиг.
Данные «в среднем по больнице» не интересны. Основное время код проводит в циклах.
Это никак не отменяет того, что я сказал.
Вот дураки — то в Интел и AMD. Не могут 1 строчку поправить :) А ещё и кэши не могут увеличить как у Apple. Ведь это 1 строчка в коде(с) Как сидели в 2003 с Pentium-M, так и сейчас сидят на 32/32 (L1I/L1D) в Comet Lake.
Не не могут, а не хотят. Потому что у них есть симуляторы, которые показывают, что это неэффективно. Но есть люди, которым всегда надо больше — больше МГц, больше ядер, больше мегапикселей, больше камер,… :D
Ничего, что размер структур напрямую влияет на энергопотребление и задержки? ARM не любит большие ROB, потому как это заметно ухудшает энергоэффективность.У Эппла какая-то другая физика, или просто 5нм? :)
Apple, в отличии от всех остальных может делать большие структуры, которые быстро работают и при этом энергоэффективны.
И в чем конкретно проблема сделать frontend с шириной 8? Делаем шину в L1 I-cache шире, 512 бит или 1024 бит — сколько не жалко. Добавляем декодеров, и вуаля.
Ахах. Всего-то нужно добавить декодеров =) «Глупые» интеловцы и AMD-шники и ARM-овцы делают uOP кэш и разметку в L1I чтобы хоть как-то расширить узкие 4-5 wide декодеры.
А больше они и не могут сделать. Без VLE это проще,
поэтому в Power-печке 6/12-wide декодер.
если б у них стояла задача сделать чип для лаптопа,
У них была такая задача, и они не справились. Вообще не смогли. Никак. Поэтому Apple прилось уходить на Intel.
300-ваттная печка превратилась бы в 15-ваттную путем замены одной библиотеки стандартных ячеек на другую
Так в чём же проблема? Почему ни Интел, ни IBM, ни AMD не может выпустить какой-нибудь 24 ядерник в 15Вт? :))))
Как же так? Без ваших ценных указаний им не справиться?
Чтобы в 20 раз уменьшить потребление, нужно использовать старый советский…
Ах да, компилятором анроллим все циклы, чтоб было чем загружать execution units,
Это делать не нужно. Вы не слышали про предсказатель ветвлений?
После всей сказочной ереси которую вы тут наговорили, я не удивлён.
Не не могут, а не хотят. Потому что у них есть симуляторы, которые показывают, что это неэффективно.
Увеличение размера кэша L1D неэффективно? *** ROFL ***
Тогда зачем они его увеличили в Sunny Cove? :))))
У Эппла какая-то другая физика, или просто 5нм? :)
У Apple топовая команда инженеров и приоритеты расставлены правильно. Qualcomm те же самые 5нм. Уже можно посмотреть насколько хвалёный X1 сливает A14 :)
browser.geekbench.com/v5/cpu/compare/5114111?baseline=5109194
Ахах. Всего-то нужно добавить декодеров =) «Глупые» интеловцы и AMD-шники и ARM-овцы делают uOP кэш и разметку в L1I чтобы хоть как-то расширить узкие 4-5 wide декодеры.
А больше они и не могут сделать. Без VLE это проще,
поэтому в Power-печке 6/12-wide декодер.
Вы снова читаете не то, что я написал, а то, что вы хотите видеть. Не знаю, что там делают интеловцы со своей убогой ISA, но почему ARM не ставит больше декодеров? Поставить больше декодеров — это самое простое, что только можно сделать в процессоре (проще только кэш увеличить). Пока подумайте, ответ ниже.
Это делать не нужно. Вы не слышали про предсказатель ветвлений?
После всей сказочной ереси которую вы тут наговорили, я не удивлён.
Слышал, могу даже вам рассказать, как они работают. Кстати, они — одна из самых сложных частей процессора (при этом одна из самых маленьких). А теперь представьте себе обычный код: три команды, потом переход, потом две команды, еще переход, еще пять команд, потом два перехода подряд, потом еще пара команд. Итого 16. Некоторые переходы условные и зависят от результатов предыдущих команд. Теперь вы за раз вытаскиваете из кэша по 8 команд и декодируете их параллельно, а потом решаете, что делать дальше. Так вот, в этих 8 командах у вас два перехода, которые могут зависеть от результатов первой и второй команды соответственно. Окей, у нас предсказатель переходов, который говорит нам, что первый переход надо выполнить. Правда, за то время, за которое срабатывает предсказатель, мы спекулятивно вычитываем и декодируем еще, например, три раза по восемь команд. То есть мы достали и декодировали 32 команды, из которых смогли использовать только четыре. Ну ок. Возможно, этим оверхедом можно пожертвовать. Правда, на мой взгляд это как раз то, что превращает процессоры в печку. Что-то в этом есть от Pentium-4 :)
У меня есть замечательная книжка Майка Джонсона — одного из авторов AMD 29050. Это первый суперскалярный RISC от AMD — 1990 год, вроде бы. И в ней уже есть графики, сравнивающие эффективность декодера на 2 и 4 команды. Даже если мы забудем все доисторические мэйнфреймы, то декодер на четыре команды в обычном процессоре был представлен больше 30 лет назад! С тех пор частоты и количество транзисторов выросли астрономически, но до сих пор тот же ARM пихает декодер на те же четыре команды в самые распоследние Cortex-A7x. Вот же тупыыыые!
Когда branch misprediction остаётся в пределах 10% на разнородной нагрузке, оверхедом действительно можно пожертвовать. Ведь в 9 раз из 10 мы не только вытащили и декодировали то, что нужно, но и спекулятивно исполнили на свободных исполнительных блоках.
Вообще на этой картинке любопытно посмотреть на IPC: на Intel 1.75 в среднем и 3 max, тогда как A12 показывает цифры около 3 в среднем, и до 5.5 на отдельных алгоритмах — это хорошо показывает, что уже он был бы ограничен в производительности (по крайней мере на каких-то отдельных нагрузках) при 4 декодерах, а M1 прилично больше производительности на частоту выдаёт.
Правда, на мой взгляд это как раз то, что превращает процессоры в печку. Что-то в этом есть от Pentium-4 :)
Мы же обсуждаем существующий процессор, который можно купить в реальном устройстве. Он никак не похож на печку.
Но это не значит, что архитектура первого лучше, просто она другая.
Если она показывает ту же производительность (благодаря большему IPC) при меньшем энергопотреблении (~частоте), то я считаю, что она объективно лучше, при прочих равных.
не уверен, что сильно сложнее какого-нибудь OpenSPARC или Power.
Ахах. Там пропасть по сложности. В Power традиционно слабый OoO движок, а OpenSPARC (T1/T2) это вообще простейший in-order процессор.
Почитали бы на досуге OpenSPARC T1 Micro Architecture Specification
www.oracle.com/servers/technologies/opensparc-t1-page.html
Не прорыв. Не «The Next Big Thing».
Ну как скажете :) Просто первый ARM опережающий топы х86 по абсолютной производительности потребляя 1/4 энергии. Сущие пустяки.
Хотя отчасти я согласен — настоящим прорывом был Apple A7. 7 лет шла упорная инженерная работа по выведению его на #1 по производительности.
habr.com/ru/post/67673/#comment_13517655
2009 год, на минуточку.
«Топовость» тоже, так скажем, дискуссионный вопрос. 8ГБ памяти — у меня в нетбуке из '14 за 15 тысяч рублей столько же памяти. Ну, и по процессору — Cortex-A8, для своего времени, был актуальным решением. Этот чип — тоже актуальное решение, лучше конкурентов, но я видел первые двухядерные решения — скажем, лэптопы на nVidia Tegra 2 — и несмотря на превосходство прямых конкурентов со старыми одноядерными ARM'ами — их распространенность была не очень большой. Хотя Toshiba с nVidia Tegra 2 я даже в руках держал. Неплохая машинка, лёгкая, но не без особенностей.
Потом много что было, и даже сейчас можно купить без особого труда Chromebook на ARM чипе.
Эти существующие устройства заняли какую-то нишу; эти нетбуки и ноутбуки за много-много денег от Apple тоже займут определенную нишу (в их миллионных тиражах я не сомневаюсь), а будет ли вышеупомянутый x86-капец — это вопрос.
Тут про геймеров в писали — ну так сколько игр там портировано на MacOS?
Вообще не волнует.
Меньше игр — меньше конкурентов :)
А сколько из них будет портировано для MacOS on ARM?
В х86 игры на macOS можно спокойно играть на M1 и даже лучше чем в нативе.
Спасибо Интел за днищенские видеокарты.
8ГБ памяти — у меня в нетбуке из '14 за 15 тысяч рублей столько же памяти.
Вопрос в том, можете ли вы редактировать несколько 4К потоков в реалтайме на своём нетбуке или нет. Сможете собрать ядро линукса в виртуалке за пару минут?
Cortex-A8, для своего времени, был актуальным решением.
Для компа? Разумеется не был. Подсказать что было актуальным?
Nehalem 4 ядра 8 потоков 3ГГц. Между ними 50x разница по скорости.
лэптопы на nVidia Tegra 2… их распространенность была не очень большой.
AC100? На Андроиде. Без магазина. Без софта. Без апдейтов. Cortex-A9 без NEON.
КОМУ он был нужен вообще и для чего?
У меня такой есть с Линуксом. Разумеется линукс там работает через жопу из-за архикостыльного железа. За все годы его так и не смогли заставить работать нормально.
Chromebook на ARM чипе
Нишевое устройство для интернета на слабых ARM-ах, которые никакую конкуренцию х86 не оказывают.
В х86 игры на macOS можно спокойно играть на M1 и даже лучше чем в нативе.
Хорошо, что у маководов с этим легче, чем у Linux c WINE/Proton.
Вопрос в том, можете ли вы редактировать несколько 4К потоков в реалтайме на своём нетбуке или нет. Сможете собрать ядро линукса в виртуалке за пару минут?
Не редактирую видео, но, думаю, нет. Ядра не собираю, но то, что я компилирую, компилируется достаточно быстро — мои игры собираются за секунды, числадробилки — за доли секунды. Чего не хватает — так это то, что устройство в 2,5 раза быстрее моего первого нетбука (который, к слову, тянул студию или несколько окон Линяги или Вовки), не может параллельно держать видеозвонок в Дискорде и, скажем, скроллить карту. Подвисает :)
Но это вопрос к современному Electron-софту и JS-разработчикам.
Для компа? Разумеется не был. Подсказать что было актуальным?
Nehalem 4 ядра 8 потоков 3ГГц. Между ними 50x разница по скорости.
Мы всё ещё говорим об устройствах весом меньше 1300 грамм и с жизнью батарейки от 6 и более часов? Указанные вами процы, хоть и были анонсированы раньше, вышли позже этого _устройства_, и их никогда не вставляли в нетбуки и ультрабуки. А вставляли Intel Celeron M, Intel Atom'ы, и вот АРМы в качестве Proof-of-Concept. Потому что, если мы уберем любые разумные ограничения (накладываемые на указанный форм-фактор, вес, и время жизни), и оставим топовые решения, то топовые решения и сегодня легко обойдут M1.
Говоря об актуальном решении я сравнивал сравнимое с сравнимым — ARMы. И тут, спору нет, кастомное решение от Яблок лучше всего остального на сегодня.
AC100? На Андроиде. Без магазина. Без софта. Без апдейтов. Cortex-A9 без NEON.
КОМУ он был нужен вообще и для чего?
Как я и сказал, не без особенностей.
Впрочем, как и вот эти нетбуки с M1.
Нишевое устройство для интернета на слабых ARM-ах, которые никакую конкуренцию х86 не оказывают.
Их собирают сотнями тысяч (если не миллионами) штук и раздают школьникам в Америках и Европах.
Тоже самое могу сказать про обозначенные в теме устройства: нишевые устройство для посиделок в кафе, которые никакую конкуренцию х86 не оказывают /s
В х86 игры на macOS можно спокойно играть на M1 и даже лучше чем в нативе.
Хорошо, что у маководов с этим легче, чем у Linux c WINE/Proton.
Как я понимаю, это разные вещи. Речь идет о том, чтобы на MacOS ARM запустить приложение под MacOS x86-64. Wine/Proton — это чтобы запустить на Linux x86-64 приложение под Windows x86-64. Для запуска приложений под Linux ARM на Linux x86-64 красивых трансляторов вроде Rosetta нет (могу ошибаться), и обычно используют qemu.
То есть, да, цены одного порядка (в отличие от цен нетбуков, но у них стрёмные экраны и слабые процы), но разницу в 1,5 раза найти достаточно легко.
Да он же медленней в 3 раза. Да и других компромиссов хватает.
HUAWEI NBLK-WAX9X AMD Ryzen 5 3500U 2100 MHz (4 cores) Single-Core Score 565 Multi-Core Score 2486
MacBook Pro (13-inch Late 2020) Apple M1 3189 MHz (8 cores) Single-Core Score 1724 Multi-Core Score 7535
Поэтому напрямую приводить как аналог не верно.
модемы — не выходят особо
Думаю, скоро выйдут. Только под другой маркой
Я не верю в крушение Intel, да и в целом x86. M1 вообще не конкурент. ARM чипы уже десяток лет со всех сторон наступают, но как только ты с ними пработаешь — сразу понятно, что старый добрый x86 ПОКА лучше в 90% случаев, кроме мобильный телефонов, приставок и т.д.
Что касается Apple, мне интересна больше всего интеграция приложений с iPhone на Macbook. Если это будет сделано в удобоваримом варианте, то лично для меня это будет киллер-фича. Можно долго разговаривать о том, что 8 GB памяти на ноутбуке это мало. Но, меня просто бомбит от всякого навоза типа Slack, Skype и прочих выродков. Именно они жрут память гигабайтами на десктопе. При этом на iPhone они вполне нормально работают. Мне даже пришлось сходить в википедию, чтобы узнать сколько RAM на 7-м iPhone — 2 GB.
Хорошая интеграция приложений между Mac и iOS сходу обеспечит большинство пользователей Apple всем необхоимым. Но да, любители доккера будут страдать.
Так в том-то и дело, что АРМов не было и любители докера (я в контексте веб-разработки, если что) запускали на маках обычные amd64 образа для Линукса в обычной виртуалке почти без проседания производительности (монтирование в контейнеры локальной ФС замнём для ясности). А теперь непонятно, то ли на АРМ-образы переходить (а на серверах и у команды amd64, то есть нужно если не два набора докерфайлов и прочих конфигов, то параметризировать существующие), то ли уходить с маков на amd64, то ли всю компанию переводить на АРМ
Как вариант — платформонезависимые сборки. Зависимой частью остается костяк, притягиваемый из репов (скажем, nginx + lua + redis + postgres), остальное на эрланге/питоне/ноде/яве/черте_рогатом.
Гошечку придется отложить или собирать версию под арм.
Зависимыми ещё остаются сами эрланг/питон/нода/ява/черт_рогатый
Но главное нарушается принцип "везде, от локальной машины разработчика, до продакшена, запускается один и тот же образ, дающий очень близкие окружения, практически исключающие ситуации "у меня локально всё работает""
Так отладить одну языковую vm в тысячи раз проще, чем сонмище нативных программ.
И разработчики вокруг этих vm — не джуниоры.
Я про то, что образ приложения FROM черт_рогатый:1.0.0-amd64, запускаемый на сервере будет полностью отличаться от FROM черт_рогатый:1.0.0-arm64, который запускает разработчик
Это конечно.
Зато не будет отличаться тот лапшекод, который наваяли погромисты…))
Что, на взгляд каджита, гораздо важнее.
Да, не будет, но есть вероятность что поведение этих образов будет отличаться. Вплоть до кучи кода, обёрнуутого в if (platform == 'amd64') { ...} else {}
Может. Более того, должно, если вы каким-то образом задействуете SIMD, например, вызывая встроенную библиотеку для работы с массивами.
Но точно так же абсолютно такие же артефакты могут оказаться в компиляторе или трансляторе типа Rosetta — от чего бинарники под разные архитектуры будут различаться в поведении, несмотря на то, что реализуют один и тот же код.
Да тот же size(int), который немало попил крови при переходе x86 ⇒ x86_64.
Языковые vm не идеальны, и точно не являются серебряной пулей. Но этот недостаток — в принципе не их недостаток, а общее свойство любого инструментария, конвертирующего код разработчика в реальную работу на целевом железе.
Именно. И боли у разработчиков, использующих Маки для разработки Linux amd64 софта с докером, прибавится.
Да тот же size(int), который немало попил крови при переходе x86 ⇒ x86_64.
Вот вы это сказали и у меня аж волосы на спине дыбом встали от воспоминаний портирования программы из 2000 года на современную систему в 2019 году...
ARM вряд ли убьёт ПК, но вот откусить нижний сегмент ноутбуков они способны, учитывая огромное количество программного обеспечение для Android.
нет
The first-generation iPhone was announced by Apple co-founder Steve Jobs on January 9, 2007. went on sale in the United States on June 29, 2007,
с остальным тоже дискутабельно :)
как софт для разраба — 1. для iOS другого и нет :) 2. для других моб платформ свои приколы.
как софт для домашнего пользования — да, он не супер, но лучшее из всего что есть.
Энди Гроув был визионером и 100% паровым катком ездил по всем несогласным с новыми или рисковыми идеями. Потом сбылась мечта инвесторов и stakeholder'ов — его «ушли» и можно было перевести ползунок «доходность» в максимум: плевать что там через 10 лет какие-то проблемы рынков будут, «дивиденты здесь и сейчас» — это синица в руках.
На волне прошлого кризиса и падения доходов интересно было разглядывать отчетность крупных софтовых вендоров: управляемые частниками (создавшими компанию, а не получившими на блюдечке) оставляли финансирование R&D, акционерами — всё в дивиденты.
Потом я посмотрел этот Эсер только вес и работу от батареи. И так он на почти треть тяжелее (1,3кг против 1) и время автономный работу у него не превышает 10 часов против 15 и на полной яркости 7,48 против 8,28 у аира (много кто сидит на полной яркости за ноутом? а от батареи? ), притом что батарея у него более емкая 54.5 Wh против 49.9 Wh у аира. Так что в вопросах веса, потребления и как следствие работы от батареи споров не должно быть, тут однозначный win у Apple Air.
PS Как и писали ранее, яблоко не сделало никакой революции, но избавилось от платежей интелу (скорей всего уменьшила себестоимость), а также имеет пару маркетинговых (дольше работает от батареи (много кому не хватит 10 часов и нужно 16 ?, я думаю таких мало)) и вполне осязаемых (вес на треть меньше и экран чуть лучше) преимуществ.
PPS Про революцию я пишу только на текущий момент, так как я не предсказатель( айфон тоже в свей время тоже не был похож на революционный телефон и даже по многим параметрам уступал конкурентам), но теперь все считают его появление революцией.
Бывший исполнительный директор Intel Энди Гроув«Бывший» — отсюда вся проблема, кмк.
Крушение Intel состоялось