Pull to refresh

Comments 779

С трудом дочитал до половины. Статью закали Apple в попытке голословно обгадить intel, MicroSoft и возможно ещё кого-то (дочитал только до половины). Так пафосно распинаться о поглощении рынка, покрывая своими макбуками с макОС малюсенькую долю рынка.
Эту статью следовало в политических изданиях публиковать, а не в технических.
UFO just landed and posted this here
Одно слово: Intanium. Его похоронила отсутствие должной совместимости с x86
Нет, Itanium похоронила дороговизна и отвратительная цена/производительность с очень узким рынком. HP его заказал, HP его похоронил.

Ситуация с ARM совсем другая. У него офигенно удобная для производителей модель лицензирования с очень невысокой стоимостью. И именно поэтому, процессоры на архитектуре ARM сейчас доминируют (по крайней мере в мобильном сегменте).
И ещё они лезут в серверный сегмент, предлагая меньший TDP, при сравнимой производительности (Amazon EC2). Также у ARM есть большой плюс для всех сегментов рынка, — отлаженные ОС, с многолетней историей.
Т.е. перенос софта на ARM с x86, — это вопрос поставки десктопов с ARM разработчикам. Apple делает именно этот шаг. Т.е. не для мобильных разработчиков, у которых это всё уже итак есть, а для десктопных. И закладтвает базу, для продвижения своей ОС вместе с «новой» (правильнее сказать проталкиваемой) аппаратной архитекутрой. Если ч-з 5 лет нёрды не будут хотеть убивать смузихлёбов за фразу «MacBook for gaming», это будет означать, что раскрутка от Apple удалась.
Давайте разделим мух от котлет. Apple И Intel.
Вот вы говорите, что у Itanium отвратительна была цена/производительность?

Вот производительность в каких задачах вы брали? Ведь оный на момент своего выхода (начало 2000-х) это конкурент Alpha. Причем успешный, если все пользователи последнего перешли на Itanium.

Проблема была в том, что в самом массовом сегменте на тот момент доминировала x86-архитектура, команды которой транслировались в IA64 очень плохо, таким образом, выйти к широкому потребителю было нереально.

Intel стала заложником успешности своего детища с одной стороны и конкуренции с другой.

Оно не могло вложиться в новую архитектуру, т.к. новая архитектура это кап вложения для разработчиков, которые они не хотят делать. Это с одной стороны.

А с другой нету никакой возможности вложиться на полную в новую архитектуру, т.к. конкуренты готовы урвать свой кусок. И AMD это активно делала.

Во всей этой истории я до сих пор не понимаю почему они не дали ход своей видеоархитектуре, т.к. их интегрированная всегда была уровне.
Во всей этой истории я до сих пор не понимаю почему они не дали ход своей видеоархитектуре, т.к. их интегрированная всегда была уровне.

У них она была, но слишком наркоманская https://www.youtube.com/watch?v=um-1fAVU1OQ


https://ru.wikipedia.org/wiki/Larrabee

Причем успешный, если все пользователи последнего перешли на Itanium.

Кормили сказочками.
Itanium был убыточным бизнесом для Интел вплоть до 2009г.
Забавно, что в том же году обанкротилась SGI, которая сделала ставку на Itanium.

bits.blogs.nytimes.com/2009/11/17/a-decade-later-intels-itanium-chip-makes-a-profit

не дали ход своей видеоархитектуре, т.к. их интегрированная всегда была уровне.

Быструю видяху у них только Apple и выклянчивал. Поэтому они кое-как выпустили Iris. Ну и сейчас пытаются что-то сделать с Xe. Но очень долго запрягают. Пока что кроме несчастного TGL и аналогичной ВК для десктопа у них нет ничего.
Причем успешный, если все пользователи последнего перешли на Itanium.

Кормили сказочками.
Itanium был убыточным бизнесом для Интел вплоть до 2009г.


Вы мешаете в кучу успех у потребителя и успех у производителя.

Для того чтобы выйти на безубыточность нужны большие объемы производства. До достижении этих объемов вполне можно выпускать продукт как убыточный, планируя отыграться потом.

Если этого не сделать — покупатели ни будут раскачивать объемы покупок. Это может сделать только производитель.

Вы пробовали работать на титанике? (так прозорливо называли его эксплуатанты). Видать зря Oracle отказались делать СУБД для него…
Мне довелось «потренироваться» в работе на титаник+OpenVMS. Это нечто! Дикое количество ключей оптимизации, при этом практически никогда не удавалось достичь желаемой производительности. В общем титаник своё дело сделал. Утащил на дно OpenVMS и Alpha.
Не титаник, а Итаник.
Иначе не смешно.
> Вот производительность в каких задачах вы брали?
Я не про производительность. А про цена/производительность. Бизнес считает деньги. А потом Oracle выпускает Exadata на х86, и хоронит супердома окнчательно, прекратив разработку ПО для Itanium в 2011, после заявления Intel о EOL Itanium.
Всё, — платформа мертва. Интел прекратил заниматься фигнёй избавившись от убыточного производства. HP не создал массового рынка для Itanium и не занял значительной ниши в Enterprise. HP-UX имел просто отвратительную поддержку в плане свежего ПО. HP не стермился создавать массовый продукт, он не создавал массовую экосистему, как это делали Intel&MS, и Intel&IBM&RedHat и куча других включая Google.
Itanium изначально был маргинальной системой, не оправдывающей своей цены.
А про цена/производительность.

Один из параметров ясен (цена), а второй?

А потом Oracle выпускает Exadata на х86, и хоронит супердома окнчательно, прекратив разработку ПО для Itanium в 2011, после заявления Intel о EOL Itanium.
Всё, — платформа мертва. Интел прекратил заниматься фигнёй избавившись от убыточного производства. HP не создал массового рынка для Itanium и не занял значительной ниши в Enterprise. HP-UX имел просто отвратительную поддержку в плане свежего ПО. HP не стермился создавать массовый продукт, он не создавал массовую экосистему, как это делали Intel&MS, и Intel&IBM&RedHat и куча других включая Google.


Я никак не пойму, как это обосновывает утверждение, про соотношение цена\производительность в 2001 году…
Один из параметров ясен (цена), а второй?

п р о и з в о д и т е л ь н о с т ь

spec.org, tcp.org

Я никак не пойму, как это обосновывает утверждение, про соотношение цена\производительность в 2001 году…


Создав дорогой процессор, удешивить который не смогла, и параметр цена/производительность вытянуть на уровень не смогла. HP не смогла создать рынка (внутри куча факторов, читайте пост выше).

Если ещё что-то не понятно, спрашивайте.

А вы, добрый человек, хам. Ну, ок, будем тыкать носом.

Вот два результата:

Alpha

Itanium

И снова я вас спрашиваю. По какой задаче вы меряете производительность: по вычислениям в гидроаэродинамике или по распознаванию изображения?

Ну, ок, будем тыкать носом.


Серьёзно? Сравниваете Alpha на 1150MHz с Itanium на 1500MHz? Ну ок.

Почему не сравнить с тем, что не умерло?

2007-й год SunFire X4100
98,857 QphH, 2.65 USD per QphH
www.tpc.org/tpch/results/tpch_result_detail5.asp?id=107102901

2008-й год HP Integrity Superdome
63,650 QphH, 38.54 USD per QphH
www.tpc.org/tpch/results/tpch_result_detail5.asp?id=108022701

www.tpc.org/tpch/results/tpch_result_detail5.asp?id=109090801
2009 HP ProLiant DL380 G6
51,085 QphH, 1.09 USD per QphH

Вы думаете Oracle, Exadata на х86-х запустила и линейку SuperCluster просто так похоронила, хотя SuperCluster на SPARC-ах в TPC-C например лидером был? Нет, не просто так, топ производительность за больше деньги никому не нужна. Нужна за разумнеы деньги.
Сравниваете Alpha на 1150MHz с Itanium на 1500MHz? Ну ок.

Сравниваю два конкурента на момент выхода. А разницу в тактовых частотах Opteron в то время неплохо нивелировал.

2007-й год

Itanium вышел в 2001, Itanium 2 в 2002. Тогда же были и планы выхода на широкий рынок. Однако этого не произошло, т.к. x86 плохо выполнялся, а доп. козырь в виде 64-битной архитектуры успешно выбил AMD.

И отжимал со страшной силой долю, вплоть до 2006 года, т.е. до выхода Core 2. И в 2007 году вы сравнивать архитектуру в которую в течении 5 лет вкладывались деньги и проц, финансировавшийся по остаточному принципу, а потом делать вывод о том что его сгубило…

Про Exadata и SuperCluster не моя тема. Но Гугл говорит, что Oracle запустил Exadata в 2008 и сразу на x86, а SPARC-и им достались от Sun, которую они поглотили в 2009-2010 годах. А SuperCluster похоронен в 2019 году.

И опять же, для БД, на которые вы упираете, важен не сколько параллелизм (а это главная фишка Itanium), сколько размер кэша и скорость доступа к оперативке.

Всё что вы написали, абсолютно никак не меняет ситуации, а именно: HP не создал массового продукта, сразу создав маргинальную дорогую архитектуру, просто проигнорировав по началу x86, а AMD&Intel создали, они создали рынки. Теперь точно также, все кто не запрыгнут на паровоз ARM, будут удивляться почему они нишевые, и сколько им жить осталось, с каждым годом всё больше платя за свою нишевость.
Все остальное значения не имеет.

Ваша демагогия, и припысывание мне, не изречённых мною слов, также значения не имеет. Ключевой показатель всегда будет цена/производительность, который напрямую влияет на возможность создания массового рынка.
UFO just landed and posted this here
А я не понимаю, в чём проблема выделить одно-два ядра под x86 обратную совместимость, официально объявив, что x86 остаётся лет на двадцать только как поддерживаемая, а не развиваемая архитектура, с небольшим приростом производительности от серии к серии, и параллельно к ним добавить ядра с новой архитектурой?
Возможно, это и сложно с точки зрения разработки, но сложнее ли это того, чтобы медленно и мучительно пытаться перестраивать самолёт из старого кукурузника в аэробус прямо на лету?
А разве интел позволяет сейчас кому-то взять и сделать x86-совместимый проц?
Я думаю, что VIA и прочие аутсайдеры процессорной гонки, но имеющие, тем не менее, лицензии и патенты на x86, вполне смогут лицензировать технологии за скромное вознаграждение.
en.wikipedia.org/wiki/List_of_x86_manufacturers

Это будет что-то уровня Pentium-M в лучшем случае… Rosetta быстрее.

И вот вопрос: зачем разрабатывать с нуля свои быстрые x86 ядра ради обратной совместимости с нормальной производительностью, если можно прямо решить поставленую цель «сделать быстрый ARM», ну а коли он быстрый — он и софтовый эмулятор достаточно быстро заэмулирует.
Тут скорее вопрос, какая архитектура таки перспективнее. Но тут можно устроить кучу срачей на эту тему и ни разу не приблизиться к ответу на вопрос
И имхо, переход на арм это конечно важный шаг для эппл, более того, уверен, за эппл последует и майкрософт, сделав нормальную вин 10 для арм, но это не говорит о том, что интел обречена. У них много денег, опыта, тысячи специалистов своего дела и только их решения покажут, насколько интел готова к будущему. Несомненно арм отжимает солидный кусок рынка настольных ПК, но это нормально вполне и происходит уже не первый год
Честно говоря, я не вижу перспективы за x86 в упор. Т.е. её всеми силами пытаются вытащить на пристойный уровень разными оптимизациями, но те же оптимизации в значительной мере можно применить и на других платформах, за счёт транзисторного ресурса (другой вопрос — стоит ли). Главный ресурс Intel — это как раз R&D. Которые могут любое говно вытащить. Что не отменяет того факта, что x86, простите, старое говно. И если бы ресурсы Intel направить на развитие более современной платформы, мы могли бы получить очень существенный прирост производительности на этой платформе. За исключением, конечно, совместимости (что, опять же, обходится совмещением разных архитектур на одном чиплете)
а чем обоснован тезис о том, что х86 — старое говно?
Вероятно тем, что 8086 — 16-битный процессор из восьмидесятых. С точки зрения программиста, это заплата на заплате, напоминающая стоящую на острие пирамиду Хеопса.
UFO just landed and posted this here
Приблизительно всем, потому что проблемы ядра ОС и компилятора аукнутся пользователям приложений под эту ОС, собранных этим компилятором.
То есть арм архитектура родом из восьмидесятых — новая технология, меняющая мир, а х86 из восьмидесятых устаревшее говно??? Аргументация сильная, конечно)
Я не следил за ARM так, как за x86 — по-моему, они там не настолько парились с обратной совместимостью: для него было намного меньше софта. Поэтому я писал только о x86.
Я не считаю ARM новейшей технологией, и чуть ниже написал, что хорошо бы, если б кто-нибудь (например, Intel) сделал абсолютно новый процессор.
пишут, что арм на 64 бит несколько не похожа на арм-32 бит из 80-ых.

у интел тоже самое, но арм не тащит на себе легаси, ну, или не заставляет.

Во-первых, x86 по такому подходу из 70-х: 8008, следы совместимости с которым тянутся, это 1972, 8080, уже с которым очевидно для любого — 1974. ARM — начиная от 1983, ближе к 1985, ну а ARM/64 (в котором выкинули кучу старья) это уже 2011.


Во-вторых, ключевое тут то, что в ARM меняли архитектуру с откидыванием старья, а в x86 — нет. В 64-битном режиме продолжают быть доступными, например, бесполезные команды типа rcl, rcr, xchg продолжает сохранять лок, продолжается дурь с OF и PF, не удлинены нафиг не нужные однобайтовые in/out, cmc, hlt, in/out и т.п., зато VEX занимает по 4 байта… там полный комплект будет с полсотни таких ляпов. И нельзя винить AMD — они как раз когда изобретали архитектуру amd64, были нищими… но Intel строил миражи на песке из IA64 и игнорировал эти попытки.


В результате, победа ARM сейчас ближе к вопросу времени — повторить те наработки по десктопу, что уже есть у Intel.

wholeman всё вполне точно описал. Сам факт, что процессор (вроде как до сих пор) стартует в 16-битном режиме, что он использует сегментные регистры, в основном, не по назначению, что там вроде как до сих пор есть баги из процессоров девяностых, ради обратной совместимости (правда, уже не вспомню какие именно) и многое, многое другое. Ну и CISC инструкции тоже, хотя это тема для священной войны. Но вроде как мир постепенно движется к промежуточным языкам и виртуальным средам, а там CISC очень плохо утилизируется и вряд ли когда-нибудь это изменится.
В этом плане ARM лучше уже хотя бы тем, что предоставляет большее число регистров общего назначения, что в свою очередь даёт большие возможности для автоматической оптимизации. Намного большие, чем крайне редко используемые оптимизированные команды из расширенного набора инструкций.
Однако, я говорил не только и даже не столько об ARM, сколько о новой современной архитектуре. Так сказать, начать жизнь с чистого листа. Но, наверное, и ARM сойдёт.
Было бы интересно, если б они выпустили абсолютно новый процессор, построенный исключительно на современных технологиях. Из софта — ядро Linux и gcc, что позволит перетащить туда весь opensource, а также эмулятор x86 для проприетарных программ. Мне кажется, Intel могли бы такое потянуть, но решимости не хватит, как показывает история Moblin, MeeGo и Tizen.
Зачем нужен новый процессор, на котором будет работать старый софт? Программисты потратят сколько угодно вычислительных ресурсов с нулевым выхлопом.
> Главный ресурс Intel — это как раз R&D. Которые могут любое говно вытащить.

модемы не смогли вытащить. и ещё что-то недавно продали.
Да они и процессоры-то в последнее время не очень вытаскивают…
Главный ресурс Intel — это как раз R&D. Которые могут любое говно вытащить.

До сих пор их главный ресурс — имя и продажники.
R&D как-то уже не смотрится, если он ограничен x86. Начиная со Skylake прирост со следующими поколениями ничтожен.

Полагаю, чуда не бывает. И даже очень быстрые ARM ядра по производительности в режиме эмуляции x86 будут сильно уступать достаточно быстрым нативным x86. А в довесок ещё и проблемы совместимости в духе старых загрузчиков, старых прерываний и прочего. Что вроде бы и решаемо, но с болью, багами и страданиями. Ибо до режима эмуляции нужно ещё предварительно раскрутить процессор.
И всё это решается внедрением нативных ядер (грубо говоря, плюс один контакт, напряжение на котором определит на каком ядре этот проц будет работать со старта).
>А разве интел позволяет сейчас кому-то взять и сделать x86-совместимый проц?

Вплоть до уровня 486-Пентиума: патентная защита закончилась или заканчиваеться (25 лет на железо, есть еще авторское книжное право, но можеш обозвать команды по своему или ссылаться на добросовестное использование). Можешь производить или эмулировать архитектуру, другое дело кому такой уровень сейчас нужен.
Вроде как 20 лет, и уже до уровня Пентиума 3, а скоро будет Пентиум 4 (SSE2), что позволит сделать процессор, который может выполнять даже современные x86-32 программы.
И это в тот момент, когда современные ОС как раз отказываются от поддержки 32-битных приложений?
>Вроде как 20 лет
В США -25 лет.Срок действия патента зависит от страны патентования, объекта патентования и составляет от 5 до 35 лет (ГК РФ Статья 1363, ГК РФ Статья 1424).
Что я видел в англоязычных источниках — 20 лет.
Вот, например, вроде связанно с FMA: patents.google.com/patent/US8745119B2
1995-08-31 Priority to US08/522,067
2015-08-31 Anticipated expiration
>Что я видел в англоязычных источниках — 20 лет.
Суды США разрешили продлевать до 5 лет срок действия патента- в случае засекречивание патента, обоснование окупаемости разработок по технологии патента и в случае дополнения или усовершенствования патента. В общем из-за патентных троллей непонятная ситуация, поэтому юристы перестраховываються и рекомендуют исходить из срока 25 лет, если только сам патентообладатель не заявил что срок истек или предоставил в публичную собственность
А что не позволяет самому Intel сделать то, о чём я говорю?
Интел ничто не мешает, но только эпплу это зачем? Если они хотят перейти на свои процы — зачем им оставлять ядра x86? Тут как раз нужен баланс между «вот у нас есть эмулятор, чтобы вы могли быстро че-то запустить» и «эмулятор недостаточно быстрый, вы все-таки следующую версию своего софта нативно напишите, а то юзеры не будут рады».
Да что ж вы так упрямо пытаетесь натянуть мои слова на свои мысли? Я про эпл и не заикался даже.
Ну так а кто еще поставит такие процы в копьютеры эппла кроме самого эппла? Неважно кто сделает процы — готовые компы ж от эппл, они и решают, что в них ставить.
Господи, да при чём здесь эппл? Вы вообще в курсе, что существует ещё IBM PC? Windows? Android? Знаете такие «грязные» слова? Рекомендую поискать на википедии, много нового для себя откроете.
Ладно, если вам ну НАСТОЛЬКО необходимо прямо и досконально разжёвывать — я хотел сказать, что Intel потенцитально мог бы направить усилия своего R&D департамента на создание совершенно новой архитектуры (вероятно RISC), с парой ядер на архитектуре х86, на платформе IBM PC, всё равно у них уже давно только свои чипсеты. И в итоге получить одновременно и обратную совместимость, и резкий рост производительности (за счёт новой архитектуры). Из минусов — только то, что это не оба сразу, либо обратная совместимость с так себе производительностью, либо отличная производительность без обратной совместимости. Но поскольку у Intel более чем достаточное влияние на рынок настольных ПК, они вполне могли бы задвинуть новый стандарт и лет за пять-десять производительность в режиме обратной совместимости не требовалась бы вообще, а весь новый софт писался бы под новую архитектуру.
И да, я знаю про Itanium и их неудачный опыт. Но вот чего не хватало Itanium — так это как раз обратной совместимости. Нельзя просто так взять и забросить новую архитектуру, отдав обратную совместимость в руки только программистам. И вот как раз поэтому я и говорю о том, чтобы выделить отдельные полноценные x86 ядра под обратную совместимость, чтобы они работали отлично, но их всего-лишь было не так много, как в топовых процессорах.

Угу, условный Celeron в том же корпусе Itanium могло многое изменить в судьбе последнего

Т.е. не для мобильных разработчиков, у которых это всё уже итак есть, а для десктопных.

Мобильные разработчики сейчас пользуются для отладки эмуляторами (включая владельцев MacBook, к слову). Разве нет?

Ага, я возможно вас понял. А у вас эмулятор для М1 с MacOS X есть? Или для любого другого десктопа на ARM под Linux? Или под Win for ARM? Ну т.е. мобильная разработка это одно, десктопная, чуть-чуть другое. И даже если о серверной разработке для ARM говорить, — в эмуляторе невозможно сложить адекватное представление о производительности.
Или для любого другого десктопа на ARM под Linux?

Уверен, что большинство разработчиков тестируют ПО именно на QEMU, иначе Debian не смог бы выйти на aarch64 уже в конце 2014 ввиду отсутствия железа и дороговизны плат разработки в то время.
В этом всё и дело. Кросс-компиляция ОС это одно. Мантейнеры дистрибутива переносят пакеты. Долго и печально, пока cross-toolchain отлядят, пока одно и другое оттестируют. А потом в любом случае берут железку, что-бы ОС на ней запустить и проверить, т.к. эмулятор всех особенностей конечного железа не эмулирует. А теперь к массовому разработчику. Много-ли желающих устраивать себе такой геморой? Нет, только энтузиасты, и штучные фирмы. Почему? Потому, что это создание рынка ПО, для платформы которой ещё нет (я про десктоп). А где разработчики игр? А они не работают с платформами которых ещё нет. Даже для будущих коснолей рынок создаётся, и разрабы получают материалы и образцы заранее.
Почему Linux не завоевал десктоп? Потому, что игры для него пишут в 100 раз реже чем для Win и консолей. Все отговорки про «линукс сложен для домохозяек», — бред. Эта сложность скрывается без проблем при вкладывании бабла (и в разработку и в маркетинг), как это было сделано с Android. Это как раз и есть создание рынка. Для десктопов на Linux, никто не создаёт рынка, и если пытаются, то мелковато, и рынка выстроить не в состоянии.

Игры это просто пример. Возможность делать массовый продукт вот, что важно.

Почему Chrombooks до сих пор существуют на ARM? Потому, что есть рынок. Который создал Google. Скрыв сложность Linux от домохозяек. Google в это вложился и создал рынок. Теперь тоже самое делает Apple. Причём пока в той-же нише примерно.
Массового универсального десктопа на ARM, не существует. Его нужно создавать, создавая рынок.
Почему Linux не завоевал десктоп? Потому, что игры для него пишут в 100 раз реже чем для Win и консолей.

Смотрю на свою библиотеку в Стиме и не согласен. Примерно четверть игр портированы на Linux. Спасибо дядюшке Гейбу, еще столько же запускает Протон.
UFO just landed and posted this here

Так для ублажать хайпожоров есть консоли.
А на ПК до выхода первого/второго сервиспака SeasonPass заядлые геймеры как раз и не смотрят — там еще в Discples II и HoMM III не все переиграно.

UFO just landed and posted this here
но ведь компы станут мощнее через год

То есть, у этого автоматически пропишется в системнике Ryzen 6950X, а то и целый TR X990 и парочка 4090? )


Топовое доступное на рынке к массовому отношения не имеет.


и по той же стоимости что немаловажно

Смотрит на цену 2077 в steam и psstore


Ню-ню. Консоли — это, прежде всего, сервис и унифицированная программно-аппаратная среда, т.е. отсутствие типичных софтовых заморочек.

Зато там есть скидки в 85%, которые в приставочных сторах появились лишь недавно и то не на всё.
Плюс на старые игры цена со временем уменьшается (издатели снижают «полный ценник»), а когда появляется скидка 85%, то это просто улёт.
К этому добавляем всякие humble bundle ($12 за месячную подписку с 6 играми на выбор из 24), оттуда же берём игры по $1, и так далее.
У меня в Стиме три аккаунта разных стран, поверьте мне, я знаю, о чём говорю.
Даже в США можно достаточно дешёво покупать игры. Если не гоняться за хайповыми тайтлами. А в этом помогают вышеупомянутые HoMM 3 и Disciples 2.
UFO just landed and posted this here

Я могу либо пиратить, либо покупать игры, недоступные в моём регионе, на американский аккаунт. Предпочитаю второе.
Обычно американцы и европейцы заводят аккаунты развивающихся стран ради экономии, у меня американский аккаунт не ради экономии.

Конкретно за Стим не скажу, но в некоторых сервисах мне поддержка рекомендовала заводить аккаунты для разных стран, как стандартный способ разруливания ситуации "гражданин одной страны и резидент другой страны"

Дело даже не в играх, игры, это просто пример массовости применения. Возможность спрятать сложность как для потребителя, так и для разработчиков контента, — основное условие для создания массового продукта. Как велосипед — просто.
Вы про новый электродвухподвесный Specialized Epic Levo интеллектуальными задним амортизатором с платформой, регулировкой отскока, компрессии, и беспроводным управлением? Да, простой механизм, всего 14000$
Нет, я про: телевизор, видеомагнитофон, CD/DVD/BluRay-player, игровые консоли, телефон, велосипед, смартфон, планшет, холодильник, стиральную машину, и т.д. Бытовое применение со скрытой сложностью, — массовый продукт.

для меня, как геймера ничего не изменилось за годы. как держал две оси (работа и вин для игр) так и держу. я не особо разбираюсь, но такое ощущение что протон надо под каждую игру допиливать, иначе я не понимаю почему до сих пор тонны игр (не ааа, а инди ) на нем не работают. имхо такими темпами ничего не измениться на рынке игр для линуксов, т.к. среднего геймера не устроит ни 25 ни 50%

UFO just landed and posted this here
я так и переехал. Два года использовал proton, но вот очередная замануха на нем не пошла, и оказалось что на винде игрушки даже лучше выглядят и шрифты в браузере. Так и сижу пока.
Debian-у первые железки подарили ещё в марте 2014, а сам порт начали готовить практически сразу после анонса архитектуры в 2010.
Одно слово: Intanium. Его похоронила отсутствие должной совместимости с x86

Нет, Itanium похоронила дороговизна и отвратительная цена/производительность с очень узким рынком. HP его заказал, HP его похоронил.


При эмуляции x86 только.
В нативном режим Itanium себя хорошо показал.
HP его заказал, HP его похоронил.

Враньё.
HP судилась с Интел чтобы Интел продолжала выпускать Itanium. Интел не смогла написать хороший компилятор для него.

Если бы AMD не сделала AMD64, то сидели бы на Итаниумах щас.

Ситуация с ARM совсем другая. У него офигенно удобная для производителей модель лицензирования с очень невысокой стоимостью.

После покупки ARM Нвидией и разрушением Трампом свободного рынка этот ARM стал нафиг никому не нужен. Переходят на RISC-V или OpenPOWER.

Яблоко влило денег в продвижение своего проца, и все некоторые тут начали его расхваливать.
Серверные ARM много кто делает, пока не преуспели особо.
этот ARM стал нафиг никому не нужен.
вряд ли инициатива эппла с ARM провалится, их маркетинговая машина всему миру объяснит, что MacBook на ARM предел мечтаний любого человека. Так что ARM будет очень даже нужен ;)
UFO just landed and posted this here

Ну вот после анонсов и обзоров М1 я в первый раз серьёзно задумался о покупки Air, а то не читал, но осуждаю. )

Ну, не все задумались. Хотя бы потому, что высокая автономность многим нафиг не сдалась. Ну вот зачем вам ноут с работой от батарейки 20 часов? Все равно ведь в лес его на неделю не возьмешь, а в обычном суточном рабочем режиме всегда можно зарядить. Т.е. есть некий лимит автономности, выше которого уже бессмысленно ее наращивать. А вот скажем текущий декларируемый лимит на объем памяти 16Gb — это засада так засада.

P.S. У меня вот вообще два ноута, и все живут от розетки. Всегда. А мобильным является телефон или планшет. Ну и там да, ARM, в телефонах-то.
Я много путешествую, часто бываю на всяких конференциях, движухах, мероприятиях. Там можно найти розетку — как правило — но сидеть привязанным к розетке весь день значит пропустить большую часть движухи.
Поэтому у меня все ноутбуки живут не меньше 6 часов от батареи, это одно из обязательных требований при выборе и покупке.
20 часов — очень круто. Это когда утром туда, днём там, вечером обратно. Всё это на самолётах / поездах. Грубо говоря — гарантированные сутки работы (с перерывом на сон) в реальных условиях.
А зачем вам сидеть привязанным? Вы же не можете заниматься движухой больше скажем 16 часов в сутки — потом вы все равно ложитесь спать.

Ну т.е. я согласен, что 20 это круто — но это практически предел. Я бы даже сказал, что предел это 24-8 на сон, или еще меньше. И больше никому практически не нужно. И да, работать 16 часов вредно, это я вам уверенно говорю.
Смотрите, 20 часов, заявленных производителем, это при 50% яркости, с отключенным wi-fi, при наборе текста в notepad или воспроизведении видео хардварным ускорителем. То есть это сценарий во сферическом в вакууме.
В реальности там будет включен wi-fi, будет работать IDE, например PyCharm, который при каждом допечатывании условного класса или объекта нагружает проц под 100% (пилорамная нагрузка, вверх-вниз), браузер (о прожорливости JS кода не говорит только ленивый), что-то там еще. То есть реально время работы будет меньше. Причём, я думаю, минимум на треть.

И потом, я не работаю 16 часов, я могу на движухе быть 16 часов, а это не работа, это развлечение (раз в месяц-два). Наконец, ну сидишь в аэропорту, в самолёте или в поезде, делать нечего. Достаёшь лэптоп и фигачишь.
К примеру, написал систему деплоймента средней руки проекта именно в аэропорту. Ну получилось так, нахлынуло вдохновение.
В другой раз летал — написал торгового бота.
Знаете, если бы я в молодости не работал по 12 часов, я бы сегодня возможно был более здоровым, чем есть. Так что — просто не советую.

И потом, я изложил свой сценарий, он вполне типичный — многие ноут вместо настольной машинки держат только ради того, чтобы перенести от одного стола с розеткой до другого. Иногда — выйти в переговорку (где тоже есть розетки и экран). В моем окружении это практически все. Я не говорю что это все — но таких много.
если бы я в молодости не работал по 12 часов, я бы сегодня возможно был более здоровым, чем есть

Не в качестве спора или наезда.
Не такой уж молодой и с детства не здоровый, 3 работы, 14-16 часов в сутки только где-то на работе не считая дороги и 6,5 дней в неделю…
А что делать, если зарплаты с этих 3 работ едва дотянули до половины средней по области? Что на одну не проживёшь, а уехать — нормально оплачиваемую работу не смог найти

Раз уж начали оффтопить:
предлагаю воспользоваться моментом и найти удаленную работу (пока бушует пандемия, даже банки вынуждены держать бОльшую часть айти сотрудников на удаленке).
Сейчас даже ручным тестировщикам-джуниорам платят вполне достойно. Если вдруг не вы не админ и не умеете программировать.
P.S.: я почти так и сделал. Осуществил давнюю мечту — найти работу в другом городе без переезда.
> Не такой уж молодой и с детства не здоровый, 3 работы, 14-16 часов в сутки только где-то на работе не считая дороги и 6,5 дней в неделю…

Не здоровый? Гагарин по сравнению с вами овощ на искусственном дыхании. Вы вообще спите? При таком здоровье вам прямая дорога на олимпийские игры — все медали соберёте.

> А что делать, если зарплаты с этих 3 работ едва дотянули до половины средней по области?

С такой работоспособностью минимум в Москву можно ехать чисто на авось автостопом без гроша в кармане. Что за область и что за работы хоть?
UFO just landed and posted this here
Вы же когда-то работали в МУПе/ГУПе, если мне память не изменяет. Много зарабатывали?

А дворник может аж в трёх местах работать, «и в министерстве на счету, и в Академии считаются!»(с)
UFO just landed and posted this here
Улицы мести по 14 часов в сутки — по-моему это уже сверхчеловеческий подвиг. А вот сторожем 14 часов в сутки — вполне. И зарплата такая и будет, наверное.

недавно заменял сторожа — днём сидишь админом, ночью спишь сторожем, опять днём админом… Но почему-то устаёшь будто работал физически. То есть ночью отдыхать не получается.
А зарплата раньше была на 1 тыр больше, чем вышенаписанное "днём админом", сейчас она заметно меньше. Ну и оно "сторож-истопник-дворник_у_здания"

нельзя. Им платят столько же (сколько инженерам, эникейщикам и "почти админам"), но при этом вакансий дворника давно нет, заняли пенсионеры.

день техником-админом, 2-4 часа на прежней работе эникейщиком и до 22-23ч у знакомого на мебели, где на данный момент из постоянных работников остался я один (кто болеет, кто уехал домой в другой город...)

Ну а вы думаете, я всегда что-ли ради развлечения по 12 часов и т.п.? Нет, было по-разному. Но итог в общем одинаковый.

И кстати да — удаленка. По нынешним реалиям все почти ее предлагают. За последние пару месяцев мне приходило штук пять предложений пообщаться, и пару раз удаленку предложили с ходу, даже не спрашивая меня.
UFO just landed and posted this here

С другой стороны, так зарядка мастхэв, как ключи. А когда её раз в месяц только нужно использовать, то наверняка понадобится когда рядом не будет.

Зарядка это не только ценных мех, но и полкило веса в рюкзаке.
Если ноут живёт месяц от аккумулятора, то ему и для работы должно хватать зарядки от мобильника.

На фоне 4,5кг ноутбука и 1 кг сумки я пренебрегаю

Боюсь, что меня с такой бандурой в самолёт не пустят.
У меня настольный ПК в сборе легче, всего 3 килограмма :)
Так это потому что без аккумуляторов!
UFO just landed and posted this here
Точно всё. Это «мое виденье» как свободного художника инженера на тему Steam Machines. До того как они появились, и после того, как они сгинули в небытье.
Core i7-4770 4C/8T 3.4 (3.9), 16GB, GTX 1050 Ti, 2*2,5 SSD в алюминиевом корпусе и с блоком питания на борту (правда, поскольку я начал до Steam Machines, то корпус делал под более распространенные тогда PSU TFX, а жизнь показала, что надо было под PSU SFX делать).
Размер 300*250*90, объем 7 литров.

Учитывая, что с первого дня жизни этого проекта я сменил 5 городов, то мне кажется, что идея была выигрышной.

Похожий конфиг, кстати, у меня, только ещё 17" монитор и аккумулятор.

UFO just landed and posted this here

В расчёте на день вероятность сильно повышается, если надо раз в месяц заряжаться.

UFO just landed and posted this here
Ну люди ведь заряжают не именно когда достигает полного разряда. Если месяц работает и человек каждый день пользуется, то он временами будет подзаряжать его в течении месяца.

С нокией 3310 это плохо работало )

Ну телефон в те времена часто в кармане болтался. С ноутом часто бывает что на столе. Если подключать к монитору по TB, то вообще заряжается. Да и сигнализировать можно начинать за пару дней.
Хотя бы потому, что высокая автономность многим нафиг не сдалась.
Да ну?
У меня вот вообще два ноута, и все живут от розетки. Всегда.
Железная аргументация! Мы, наше царское величество, властью, данной нам Богом, заявляем: автономность ноутбукам не нужна.
Все равно ведь в лес его на неделю не возьмешь
Бандура 14" стоимостью over 1k$ в лесу действительно не нужна. Такие машинки обычно едут с хозяином в автомобиле и носятся в дипломате или специальной сумке. Хотя, у кого-то бывает ещё такой кейс — научная экспедиция в труднодоступные места, куда можно разве что заброситься вертолётом.
Ну вот зачем вам ноут с работой от батарейки 20 часов?
Чтобы заряжать его также часто, как и смартфон — раз в 2-3 дня. Аккум дольше проживёт. И начнёт умирать уже тогда, когда сам ноут морально устареет.
Т.е. есть некий лимит автономности, выше которого уже бессмысленно ее наращивать.
Вот силюсь всё себе представить, где ж этот самый лимит есть. Вот были бы ноутбуки, которые могли бы работать неделю — тогда их можно было бы смело брать в отпуск, и не переживать, что в гостиницу не завезли розеток нужного вида, напряжения и частоты. Лимит автономности в настоящее время диктуется исключительно массой и размерами АКБ, а никак не длительностью работы.
>Да ну?
Ну да. Я сказал «многим», а не всем. Если вы не умеете читать — это не мои проблемы. И не надо хамить в ответ.

Не ради автнономности, у меня тоже ноут живёт от розетки всегда, если не забыл включить придя в офис или домой. Тут именно поиграться хочется ) Технически интересная штука получилась, кажется, если получится линукс и/или докер завести

Не, ну поиграться — это святое :) Но лично меня прямо тут строго останавливает 16Gb. Ну что это за размерчик для работы?
Да, зачем такая же по характеристикам машина, но жрущая в два раза меньше. Ну проедет в два раза больше на баке. Чистой воды маркетинг.
Ну вообще менять железки на новые (с низким потреблением) позволяют себе обычно конторы типа ЦОД, где потребление огромное. Никогда не видел, чтобы это делали для настольных машин или ноутов.

А вы что, реально верите тестам? Я думаю как раз это чистый маркетинг. Ну не на 100% конечно, но точно не без этого.

Ну и потом, мне вот нужно обновить машинку. Что вы думаете я буду ставить в первую очередь? Память до 64Гб.

Хотя я заранее согласен, что такие люди, кто рассматривает покупку HP ZBook — они меньшинство.
Все равно меняют и ротация идет, где-то быстрее, где-то медленней. И вот тот же сегмент ультрабуков может сильно покачнуться в сторону макбуков. Вчера только смотрел по цене. Макбук 13 про выжрдит дешевле при тех же характеристиках, чем леново экстрим. При том дешевле выходит машины с процем i5 и экраном с меньшим разрешением, яркость и цветопередацей. Да еще и тач раза в полтора меньше. Про звук даже и говорить смысла нет.
И если нет привязке к платформе, то зачем за худшее переплачивать.

По поводу тестов. Эти тесты кто только уже не выкладывает. Люди компы уже с 16 числа вроде бы получают. Так что тестам верю.
>И вот тот же сегмент ультрабуков может сильно покачнуться в сторону макбуков.
В такое как раз вполне верю. Хотя сам не беру, предпочитая что-то типа HP ProBook в дешевом сегменте, как обновляемые, но понять такую покупку — легко.
Даже если 20 часов автономности не нужны, там есть другие интересные свойства. У ноутов — неплохие экраны, а в целом у линейки M1 — хорошая производительность в мультимедийных задачах, которыми часто занимаются энтузиасты. Фото, видео, звук — редактирование вот этого всего. А 16 ГБ оперативки «обычному человеку» ещё надо постараться чем-то забить. В быту самя ресурсоёмкая задача — компьютерные игры. Так для них больше 16 ГБ до сих пор не нужно. А тем, кому надо виртуалки крутить и прочую не совсем бытовую экзотику — так надо соответствующий инструмент подбирать, а не сетовать на недостатки конкретно этого.

Недавно видел серию бенчмарков по играм, так там разница между 8 и 16 на уровне погрешности измерения.

Тут и объяснять не надо, все тесты говорят в пользу М1
UFO just landed and posted this here
ПМСМ, RISC-V есть замена ARM, а OpenPOWER может заменить AMD64, особенно серверные. Но эти серверные AMD64 слишком хороши от AMD и Intel.
А в общем, тоже удивляюсь.
UFO just landed and posted this here
Дык всё есть, просто не в РФ, ибо дорого по сравнению с ценой рабочей силы. А так были и есть Xeon для рабочих станций, и Threadripper, где и много ядер, и ECC, и прочая.
А так были и есть Xeon для рабочих станций

И даже для ноутбуков

Я был бы рад ПСИе карте с армом или риском
Я бы тоже. Сам удивляюсь, почему до сих пор никто не сделал arm-овый одноплатник в виде PCIe-карты. Не промышленный компьютер, который вставляется в пассивную материнку, а такой, чтобы можно было вставлять в обычный десктоп или сервер, чтобы она была видна как ethernet-адаптер. Конечно, в ней должно быть 2 ethernet: один был бы разведён на PCIe-bridge, другой — наружу, на разъём. Разработчикам на такой компьютер в виде PCIe-карты удобно было бы заливать и сразу тестировать софт, а обычный пользователь мог бы разместить там ноды для Tor и прочих скрытосетей, DNSCrypt-клиент, VPN-клиент. А ещё из таких карт можно было бы собрать кластер для какой-нибудь студенческой лаборатории.
обычный пользователь мог бы разместить там ноды для Tor и прочих скрытосетей, DNSCrypt-клиент, VPN-клиент.


Это НЕ обычный пользователь.

Ну и прикиньте, сколько надо вложить денег, и сколько потом продать устройств, чтобы получить прибыль.
Берете малинку и делаете это все.

Были геймерские карты с подобным функционалом — не пошло.
Но в целом, вы описали функции типичного роутера. Так почему бы его и не взять?

UFO just landed and posted this here
Да такое единицам нужно. Очень много девелоперов с ноутов работает. На удаленке так это большой плюс, нет привязки к месту.
>HP его заказал, HP его похоронил.

Это слишком темная история.Это был типа совместный проект.Зачем менеджеры НР похоронили свой успешный процессор не понятно.(ходят слухи про утечку инфы о переговорах Бабаяна с SUN) Да они отставали по частотам про сравнению с тем же Alpha.Но был очень экономный процессор, у них при хорошей производительности кэша 2 уравня долго не было, только в последних перед закрытием появились.А так был лидером по командам за такт-до 6 шт с арифметикой!
Соглашусь только частично. «MacBook for gaming» никогда не будет, ведь тут дело не в процессорах, а в ОСи. Apple всегда себя позиционировала как производителя элитарной техники. А значит не позволит себе выйти на широкий рынок.
Но! Они сделали маленький шаг для человека и огромный для человечества. Они показали и продолжат показывать что ARM может конкурировать с x86 в сегменте десктопов. Как обычно, такое уже пытались сделать, вспомним робкие попытки Qualcomm, с ноутбуками на снапах, но ничего не вышло.
А у Apple выйдет (но это не точно).
В итоге будет как обычно, Apple сделала, остальные рванули за ней.
Рынок десктопов наводнят производители ARM и Intel (И AMD) придётся уже не вяло пихать друг друга, а полноценно конкурировать с огромной кодлой ARM производителей. Что, скорее всего, похоронит Intel и, с чуть меньшей вероятностью, AMD. Всё же они более динамично развиваются.
Так что, как бы я не любил технику Apple, именно их действия, зачастую, двигают рынок.
Может у Itaniumа есть еще шанс, например если ему укоротить бандл команд?
Сделать Not So Long Instruction Word. Насколько я понимаю, именно с шириной VLIW был допущен просчет, что потом компилятор не мог наполнять бандлы командами. При этом остальные идеи в IA-64 весьма ценны и их жаль в стол хоронить.
укоротить бандл команд

Там и так 3 инструкции максимум. Куда уж ещё укорачивать?

При этом остальные идеи в IA-64 весьма ценны и их жаль в стол хоронить.

В современных реалиях эти идеи гроша ломаного не стоят.
Предел возможностей Itanium это линейные циклы с вращением регистров
Может у Itaniumа есть еще шанс, например если ему укоротить бандл команд?

У него нет шансов, пока из-за тормозов DRAM получается, что из L1 получить данное это 1-2 такта, а из DRAM — до 200 (иногда и больше). Эта неровность убивает любое пред-планирование команд.


Хотя можно, конечно, комплектовать SRAMʼом. Для некоторых задач и 10-15-кратное удорожание оперативной памяти вполне сойдёт… там и кэш будет не нужен...


Насколько я понимаю, именно с шириной VLIW был допущен просчет, что потом компилятор не мог наполнять бандлы командами.

Дело не в ширине, дело в том, что оно explicitly parallel instruction computing.


При этом остальные идеи в IA-64 весьма ценны и их жаль в стол хоронить.

Это какие же?

Intel действительно упоролись своим положением собаки на сене. X86 обратная совместимость это здорово

Разве у ARM нет обратной совместимости?
Ох. Там в x86 такая совместимость с прошлыми поколениями, что даже количество опкодов сложно подсчитать.
МС не обгаживали. Они вообще молодцы вовремя дивесифицировали рынок. И теперь если даже весь десктоп упадет, они выживут. А вот Интел и АМД да. Не удивлюсь, если в ближайшем будущем АМД выпустит на АРМ архитектуре процессор.
Весь десктоп никуда не упадёт. Есть туева куча задач где производительность важнее «энергоэффективности». Собственно говоря x86 тоже не стоит на месте в удельных энергозатратах.
Я не хочу сказать что нет косяков у intel, AMD или MS, но статейка откровенно попахивает чёрными PR'ом от Apple.

Intel должен бояться не Apple, а как раз Nvidia: именно они сосредоточили у себя разработку и cpu и gpgpu.
Самое смешное, что я в 2007 году лично слышал от маркетинговой шишки Интел рассказ о том, что будущее за носимым компьютером/телефоном и что это будет главный рынок. Забавно, что, все понимая, эти этот рынок проспали.

Они пытались не проспать: были смартфоны на Атомах. Кстати, процессоры по тем меркам были весьма неплохие, на них даже флагманские устройства делалась (Lenovo K900, например). А потом… Ну, это уж нам неведомо.

точно, Asus P750 на Intel XScale до сих пор вспоминая с теплотой, хотя очень сцуко дорогой ))
XScale — это всё-таки ранний ARM, а не x86.
Ранние ARM — это 80-е — начало 90-х.
XScale — никак не ранний.
я в курсе, имел ввиду, что для своего времени Intel делал хорошие ARM-ы (по производительности и энергопотреблению)
Уже на Marvell XScale.
В 2006 году продали.
А потом под ними не всегда запускался софт из-за процессора, увы( Хотя и очень редко такое встречал.

Или Asus ZenFone 2… через год после покупки сдох правда, точнее, графика померла.

А сейчас такие же новости ходят про процессор из 256 атомных ядер или даже 512
Речь про nVidia Tegra? Они что-то не очень «взлетели», даже несмотря на пропеллеры /s
В первую, «сверхинновационную» Тегру забыли положить блок команд Neon, поэтому там видео тормозило. Так и похоронили :)
После этого была Tegra 3 (и на ней были даже устройства без пропеллеров, смартфоны и планшеты), а позже были X1 и последующие модификации, и вот они все как бы хотели активного охлаждения.
Я помню, как облизывался на nVidia Shield Portable (Console). Но в результате вместо того, чтобы купить классную штуку, купил доллары (не прогадал).
Сейчас они свою Тегру вполне успешно ставят в Nintendo Switch, которая отлично продается.
И даже воспроизводит игры в 480p в мобильном режиме.
Не поймите меня неправильно, но это как-то не пахнет массовой революцией. Скорее — нишевым рынком. Я знаю одного человека со Свитчем, и десятка два — с айфонами.
У меня был планшет от Asus на тегре3.
Про проц ничего плохого не скажу, а 1 ГБ ОЗУ было маловато.
К стати до сих пор выпускают и пользователи довольны приставками на них. Вот в следующее поколение армов если сделка пройдет, вполне может попасть нвидиовская графика.
И в них всё также ставят пропеллеры, по крайне мере в старших версиях.
Даже в 2019 году (когда было последнее обновление).
Статья именно об этом. Intel должна боятся Apple не потому что они захватят традиционный для них рынок, а факта того что она приведёт на этот рынок ВСЕХ владельцев лицензий ARM. И вот как раз они и могут рынок отобрать. И да, Nvidia это первый претендент на эту роль. Но не стоит забывать что есть еще Китай, и вот он то вообще ящик пандоры — AMD Nvidia Intel Apple это всё компании США. Кто бы из них не победил в войне микропроцессорных архитектур, это победа США. Но десктопные ARM процессоры это новый рынок, а Китай на примере 5G показал как он может проявлять себя на таких рынках.
Кто бы из них не победил в войне микропроцессорных архитектур, это победа США.

Буквально недавно была новость, что китайцы по поводу ARM так не считают.
Так себе будущее если оно за носимым компьютером смартфоном. Ни к чему такое ухудшение и редуцирование пользовательского опыта.

Понятное дело смартфон, планшет и ноутбук это удобно, но они не сравнятся с десктопом.

Вот не понимаю, почему не сравнятся? Что позволяет десктоп, чего не позволяет смартфон с тем же набором периферии? Я сейчас не про производительность, если что.

Во-первых дело как раз в производительности. В десктоп всегда можно напихать больше памяти и процессоры всякие помощнее поставить — там нет необходимости экономить место и энергопотребление, поэтому тяжёлые игры, 3D, компиляция больших систем на носимых устройствах неудобны. Что касается простых офисных задач, то с ними большинство современных телефонов, позволяющих подключить монитор и мышь с клавиатурой, вполне справятся (хотя часы вряд ли скоро до такого дойдут).
А во-вторых, x86 позволяет достаточно легко поставить любую ОС, тогда как для носимых устройств это не всегда возможно в принципе. Конечно, для большинства пользователей это не важно, но, например, для меня — один из основных критириев при выборе устройства.)
И кому оно надо больше памяти процессоров чтобы просто было? Единицам. Половина населения земли в интернете сидит почти только с телефона.
Я написал, «тяжёлые игры, 3D, компиляция больших систем», можно ещё, например, обработку видео добавить. Думаю, что сейчас реально десктопы мало кому нужны, но такие люди всё ещё есть. С телефона даже смотреть неоптимизированные сайты неудобно, не то, что что-то писать. Хотя некоторые и довольно большие тексты набирают — по артефактам видно.
Телефон даже эту страницу открыть нормально не может с уведомлением о количестве непрочитанных сообщений. Просто зависает на несколько минут.
Snapdragon 636, 4 ГБ ОЗУ.
Ну так этот проц появился почти 3 года назад. И изначально был рассчитан на нижний-средний сегмент. У меня на 2х леней давности хоноре, в начеле пока страница грузилась подтупливал. Загрузилась и быстро ее проматывает без лагов.
Readme Note 5 6/64, Snapdragon 636, в Яндекс браузере, не мобильная версия, сама статья открывается быстро, домотав до начала комментариев затуп секунд на 20 и заколебешься мотать комментарии до концано без тормозов и подвисаний.

П.С. При свободной памяти вообще не подвисает, а если активно махать рукой то и комментарии пролистываются быстро. Памяти отжирает порядка 700 МБ.
Браузер не указали. Посты с тысячами комментариев, например, судя по обсуждениям, ФФ открывает без проблем (подтверждаю), а Хром тормозит даже на i9.
И кому оно надо больше памяти процессоров чтобы просто было? Единицам. Половина населения земли в интернете сидит почти только с телефона.

Вообще, если отвлечься и подумать, то удивительно такое слышать в 2020 году, когда все уже просто носятся с утверждением что будущее, оно за числодпробилками: обработка биг дата, распознавания, ML/DL, генерация видеопотока с высокми битрейтом и кодеки к нему, дедупликация данных на ZFS RAID и т.п., смарт-контракты на blockchain и куча всего. А 6 млр хомяков со смартом в кармане будут потреблять ровно то, что для них сделают. Все эти фуфелы с постами в фейсбук из серии «Crowd Sourcing» — не они будут задавать тренды или генерить новую НТР.
В конце-концов, на чем создавать обещанный голивудом скайнет?
В конце-концов, на чем создавать обещанный голивудом скайнет?

на китайских армах где вместо каждого нейрона один китаец

Ну Скайнет уж лучше пойдет на телефонах, чем на компах сегодняшних. Уже многие нейроблоки встраивают в мобильных процессоры.

UFO just landed and posted this here
Я сейчас не про производительность, если что.

А можно и про неё. Флагманские модели значительно обгоняют всякие там нижнесегментные офисные машинки. Причём даже флагманы прошлых лет.
Но да, если прикрутить тот же объём периферии и допилить ОС — пользоваться смартфоном будет ничуть не менее удобно (по крайней мере для обычных офисных задач, я не предлагаю на нём чертить в электротехническом САПРЕ, которого туда не завезли, или пока не завезли).
Плюс USB Type-c, который стал универсальным стандартном и для зарядки и для передачи данных и для вывода изображения на экран (но, пока, увы с оговорками).
В итоге именно смартфоны могут сделать идею BYOD реальностью.
А вы измеряли производительность? Т.е. все эти многоканальные системы доступа к памяти, большая память, больше кэши, честные ядра (без малых и больших), на столько быстрые ядра, что родилась технология HT, которая пришла и в АМД (чтобы исполнительные блоки ядер работой, которые обычно почти не загружены), и вся мощь еще и охлаждается увесистым железом — и вот вы действительно думаете что мобилки, которые экономят каждый ватт, чтобы не перегреться — могут конкурировать с desctop.

Ну если текст редактировать, причем не большой, то может быть я и поверю. А так мобильное железо (если брать чистую производительность, без юзанья всяких узкоспецифичных расширений логики таких как какой-нибудь аппаратный кодек, ии и т.п.) — то вряд ли новейшие фламаны смогут потягаться с офисными low-end дестопными машинками, со схожим объёмом ram, 10-и летней давности.

По крайней мере у меня honor10, это типа флагман 18 года, и десктоп околотоп по меркам 2011. Ну нигде Хонор не быстрее, даже если взять основанный на quaker3 движок ioquake3, то на Андроиде спервого взгляда кажется что типа да, круто, красиво, но стоит сделать скриншоты на телефоне и ПК и разница в графике становится очевидна — на мобилке на сглаживания ни анизотропки. И более того все эти 60fps падают когда много игровых объектов.

Далее, листинг 36 мегапиксельной фотки в маштабе 1к1 это прям на нервы действует. Про комп думаю не стоит говорить что ему это легко — и так понятно.

Так что зря вы про производительность.

Кроме всего прочего — компы внушают доверие. Мобилки вам внушают? Да они мрут через 2-3 года очень аккуратного юзанья. А в компе если что-то сломается — можно в кратчайшее время изолировать прооблему и решить её. А с мобилкой — идти в сервис, где ее будут греть феном чтобы разобрать, а потом от этого фена пойдут желтые пятна после ремонта…

Мобилка — это карманный помощник — у него нет цели быть мощным, удобным и надёжным для договременной профессиональной работы. Нет и не будет.

Не измерял, я же сказал, что я не про производительность. Я про форм-фактор "маленькая коробочка с сенсорным экраном, универсальным разъёмом для подключения хаба/док-станции и батареей". Понятно, что для задач типа компиляции миллионов строк кода за раз или рендеринга полноценного кинофильма большая коробка с той же плотностью электроники сделает задачу быстрее, но я о задачах, где количества транзисторов в корпусе телефона недалёкого достаточно для нормального UX в сценариях, где у современного десктопа CPU почти всегда в idle, потому что ждёт io, а оперативка забита кэшами файлов по сути.


А в компе если что-то сломается — можно в кратчайшее время изолировать прооблему и решить её.

Это если комп самосборный или типа того. А если это какой-то брендовый системник на расширенной корпоративной гарантии, то всё то же самое, кроме того, что автомобиль нужен до сервиса довезти.

UFO just landed and posted this here
M1 — вот у него … честные ядра =)

У него половина ядер урезанные, речь шла об этом.
UFO just landed and posted this here

Или 4 обычных, и 4 разогнанных )

Ну и что, что урезанные, зато основные ядра быстрее чем интеловские.

И что что урезанные, зато при ненагруженности меньше жрет, да и производительные ядра шустрей чем чем у Интел и амд.

Медленнее новых процессоров начального уровня от АМД, если доверять независимым замерам, а не утверждением Эппла о том что их процессор «быстрее предыдущих».

Медленнее каких? Настольных? И с каким теплопакетом?

может проблема в хоноре? пробовали Dex от самсунга?
Жаль, что к стандарту не привели какому-то. Тогда бы очень много бы вообще от компов отказались. Если бы телефоны можно было как десктоп использовать.
Вот у меня Galaxy S10. И Dex на Windows поставил сразу же. И использую его иногда для просмотра фото с телефона на большом экране. И всё. Вот не возникает у меня желания делать что-то через телефон, когда есть компьютер. Я, правда, уже не молод. Возможно, дело в привычке.
«Мобилки» с точки зрения железа мне внушают абсолютное доверие — как человеку, работавшему с SoC от Quallcomm. А операционные системы сейчас переживают смену архитектуры — от звонилки и запускалки casual-игр к мощной платформе для реалтайм-обработки и представления данных (в том числе — средствами AI/ML/DL и AR).
Конечно конкурируют. В потреблении интернет контента уже давно и успешно. Тестировал свой телефон 2х летней давности и ноут 5ти летней на i3 и телефон заметно впереди.

То что компы вам внушают доверие — это чисто психологический фактор.
По поводу Хонор 10, у меня он быстрее пашет, чем ноут 2015 на i3, который жужит во всю и нагревается сильно под нагрузкой.

UFO just landed and posted this here

Ну вот только за прошлый месяц вроде пара статей была про Linux-смартфоны. Или для вас нормальная опреационка- это WIndows?

Статьи — есть, продуктов в магазине — нет.
Librem Purism, PinePhone не делают погоды.
Это очень, очень нишевые решения, продающиеся хорошо если тысячами штук.

Я же не говорю, что если прямо сейчас взять любой смартфон на рынке, то им можно заменить топовый десктоп. Просто высказал мнение, что если вендорам железа это будет интересно, то объективных препятствий не вижу.

если вендорам железа это будет интересно, то объективных препятствий не вижу.
а им неинтересно — самсунг свой DeX переделал в компаньона десктопной винде, хотя поначалу развивал Ubuntu десктопный прям на своих DeX устройствах.
в декс-е был убунту?
Был. Один или два года. Потом убили.
ну, самсунг всегда был плох в софт :(
Тут не дело плох в софт, а востребованности.

Всегда интересно было, откуда они знают про востребованность или её отсутствие, если эти устройства, по сути, не вышли на широкий рынок?

Ну вероятно есть статистика использования. Может там пользовался один на миллион.

Во всех таких начинаниях есть положительная обратная связь. Если на рынке миллион устройств с поддержкой технологии, то может быть будет один пользователь на это всё, и он будет работать в отделе тестирования технологии. Зато когда будет 1,2 млн. устройств — пользователей будет 3, когда будет 10 млн. — их будет 100 тыс.
Да даже банально время на привыкание нужно, чтобы не-гики прознали про наличие такой возможности в их гаджете, ну и время на лечение детских болячек дать (а как я слыхал, там их было немало, и по сути так они и остались). А так-то, конечно — можно на минимальной выборке не увидеть 100% покрытия и убить начинание на корню.

Вендорам железа интересно телефоны с селфи-камерами за +30% к цене продавать любителям инстаграма, к сожалению. Это массовый маркет, а не portable office.
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
Где при наличии аппаратной клавиатуры, экранная не вылазит постоянно

У меня это и на x86 неттопе нормально не работало (ubunta gnom plasma что ещё пробывал уже не помню)а мне всего лишь только браузер нужен был. В первый раз в конце 17года и последний с 19году. Единственная win 10 (8,1 тоже должна нормально уметь, но не пробывал.) из коробки могла нормально работать с подключенными клавиатурами и тачем и понимать какой именно в данный момент используется способ ввода.

Ну вот у меня есть tv-box, перешитый на armbian. Всё норм работает, полноценная десктопная система.


Просто подобная система нафиг не впёрлась на мобильном устройстве. Удобство использования в районе плинтуса.

UFO just landed and posted this here
Ну большая часть дома только для этого и использовала устройства. Вот им они заменили. Молодежь играет в основном на телефонах сейчас. Ну и айпады очень часто для профнужд используют.

То-то на iOS для планшетов куча проф софта, хорошо нагружающего процессор.

В чем не сравнятся? По производительности текущие телефоны сравнялись с компами несколькилетней давности.
«который вполне может конкурировать с чипами x86» Как голый может, но без инфраструктуры материнских плат и софта(не только операционки) как ширпотребный ПК не может и не сможет еще долго, это как смерть IPv4 предсказывали.

Зная авторитет Apple, можно не сомневаться: софт будет. Потому что как бы мы её не критиковали, но в чём ей не откажешь так это в умении внедрять инновации. Сами, может, ничего нового не изобретают, но внедряют на ура.

Софт под x86 писался десятилетиями, у меня под Вин 10 есть ПО с 2006 2000 года(Анирил турнамент), под ХП еще более древний.
Третьи герои работают под десяткой, а они уже 1999 года, так что можно и старше. :)
В этом году играл в master of orion 2. Уже 1996 год.
UFO just landed and posted this here
ну первый не считается… он даже на PSP под эмулятором работал.

98го по времени выпуска (как нагуглилось), в 99ом добавилось карт.
И у меня УТ идёт слегка модифицированный под 10ку и современное железо.
Дум2 уже давно портированный на не такой древний движок.
А остальное да, уже этого тысячелетия.

Age of Empire на десятке запускается даже без выставления режима совместимости.
UFO just landed and posted this here
Если это первый UT, то он был не под ХР, а аж под 98ю…

Емнип, ему давно уже требуется подкидывать рендерер фанатский, потому что его старый OpenGL косячный, а подсистемы, на которые основной D3D/DDraw полагался, выпилены давно из винды.

Может у меня сборка позднее но на новой ОС он просто запускается с EXEшниака, в настройках «Direct3D», файлы игры 1999 — 2002 год.
Софт который вышел десять лет назад нет проблемы запустить через эмулятор аля Розетта.
Сейчас софт пишется сразу под много платформ.
Если раньше Windows X86 была безальтернативной платформой, то сейчас если софт даже и пишется под Винду, всё равно закладывается кроссплатформенность.
Quartus II, PCLab2000SE, Sprint Layout 6, AVRDUDEPROG, zadig-2.4, MiniPro Programmer, UnrealTournament, SDRSharp, Atom Mini, CH341A programmer, CloneSpy, KillCopy, EZP2019 programmer запустятся?
Окей, останется >> 1% рынка, которому нужна древность / экзотика. И этот процент схлопнется, т.к. за уменьшением объемов придет увеличение цены.
+ кто не захочет платить за имя Аппле, + кто захочет нормальный видеоускоритель, кто просто хочет Интел или АМД, кому под ОС не дали драйверов…
кто не захочет платить за имя Аппле
Невозможность нормально написать имя компании это диагноз.

кто захочет нормальный видеоускоритель
будет чуть попозже с mbp 16 и imac

просто хочет Интел или АМД
просто это как? как хочу красненькую машинку?

кому под ОС не дали драйверов
Да все появится. И ОС и драйверы. Эппл просто показала, что так можно, если продажи будут ок, все начнут мигрировать на АРМ косяками.
Невозможность нормально написать имя компании

А что вам мешает оформить цитаты и начинать предложения с заглавной буквы? :)

Невозможность нормально написать имя компании это диагноз.

ООО "Огрызок".

Половину софта для прошивки из этого списка можно заменить openocd, который под raspberry pi (arm) работает. Sprint Layout в 2020 — серьезно? Хотя он то наверняка под эмулятором запустится.
Зато следом можно накидать CAD/CAM софта, причём даже так, что и линукс отметётся.
Это да, с CAD'ами под линуксом все печально. Даже autodesk fusion 360 заводится с каким-то лютыми танцами с бубном под wine, а что чуть поспецифичней, так вообще грусть…
Кад думаю переделают под армы в ближайшие годы.

Offtop: CH341A programmer — это который китайский, крякнутый и накрытый сверху VMProtect? Идет в комплекте с копеечными программаторами с алиэкспресса. Но зачем? Для работы с этим программатором есть длинный список нормального софта (AsProgrammer, Colibri, flashrom в конце концов)

Я на своём макбуке так и не мог перейти на Каталину, ибо ряд программ для обслуживания вполне себе не старых станков (2011 год, станки стоят сотни тысяч евро) писались под 32 бита.
да, но в результате развития из микробиблиотек на 1 функцию, но реально отлаженных в монструозные комбайны с тысячами вызовом, из которых хорошо если используется сотня в разных комбинациях (привет М-Софту и Гуглю) — в итоге не смотря на продолжающийся рост производительности аппаратуры, отзывчивость систем падает с каждой новой версией ОС, плюшек, да и глюков больше, а пользуется пользователь хотя-бы 10% возможностей?
у аппла (сам не использую, имхо) засчет контроля ПО не позволяется сильная гонка в размерах ПО, получается оптимизированнее, проще и за счет этого и их предпочитают — отзывчивость у систем выше чем у их конкурентов. большой выбор хуже чем 2-4 варианта, но максимально вылизанных. привет капитализму и сотни сортов дерьма колбасы.
у меня под Вин 10 есть ПО

А под MacOS? Они уже 1 раз переходили на интел и ничего, перешли. Так что и еще раз перейдут и весь софт, который деньги приносит, быстренько адаптируют так или иначе.
Это уже 3тья смена у них архитектуры.
UFO just landed and posted this here

У МакОси всё же третья. 6502 отношения к Макинтошам и МакОси не имела.

UFO just landed and posted this here
… только поддержку Rosetta и эмуляции PowerPC дропнули через всего два релиза ОС. :(
свитчинг с 2005-6 и дроп в 2011. 5-6 лет. мало?
Софт без привязки к x86 тоже писали дисятелетиями: больно, долго, но я таки смог собрать пакеты под линух на armv7, когда их очень не хватало и самому таки запустить графическую оболочку, редактор в ней и прочие шалости (вроде браузера). А этого преемлимо-систематизированного софта с исходниками, инструкциями, .spec и .ebuild -ами огромная армада и она БАЦ!… и работает
У закрытого софта есть проблемы, увы, видимо скоро придётся регулярно запускать qemu под арм для эмуляции x86.
а я просто в Unreal 1998 года по сети играю. Удивительно, но для этой игры до сих пор фанаты создают новые карты.
Софт будет — под макось. К сожалению, одной макоси мало для «завоевания мира» в контексте ПК. Её, конечно, больше, чем Линукса (ещё раз — я о персональных компьютерах, не о серверах), но меньше, чем всего остального.
UFO just landed and posted this here
Хм… Лет 5 назад на ScaleWay брал Baremetal Arm сервер, смеха ради, за копейки — на удивление проблем толком не испытал — php & python + mysql/sqlite

cat /proc/cpuinfo
ARMv7 Processor rev 2 (v7l)
BogoMIPS: 50.00
Hardware: Marvell Armada 370/XP (Device Tree)

А что, кросс не работаел 5 лет назад для АРМ?
Дебажить на таргете — это экстренные случаи.
А сборка — в принципе не имеет смысла, как мне кажется, особенно сейчас, когда с контейнерами легко сделать нужное окружение типа правильной версии gcc без танцев с бубном.

UFO just landed and posted this here
Докер для m1 в разработке, виртуалки (parallels, vmware) тоже. Просто в дев китах не было виртуализации. В финальных устройствах аппаратная поддержка есть. Поэтому разработчики подобного софта не успели к релизу.

Видимо apple очень хотела выпустить финальные устройства в этом году. Или результаты оказались лучше, чем они ожидали и пришлось форсировать сроки.
UFO just landed and posted this here

Если подымается linux, то поднимутся и контейнеры.
Правда, некоторые вещи придется собирать под архитектуру ручками, благо oss под это и рассчитано.
Или появится повод глянуть в сторону Erlang/Elixir.

Помнится, я в 2006 собирал кросскомпилом систему под арм
А сейчас уже начинаешь думать — а может ну его нафиг, свежие ARMы вполне себе скоростные и можно прямо на железке собирать почти всё после разворачивания минимальной системы.
дык почти 15 лет прошло, с тех пор они стали мощнее.
Хотя если собирать много, поднять ccache+distcc это несколько минут… А вообще, уже не надо собирать ядро и мир при каждом обновлении (привет freebsd, gentoo...)
Ну компиляторы все давно уже отлично поддерживают компиляцию под армы. Еасли нет использования асемблера или конкретной привязки к оборудования, то все персоберется без проблем.

Зная эпл — мы перестанем быть владельцами и компов, и софта

Судя по T's & C's Microsoft мы уже арендуем свой жесткий диск с Windows 10 у них.
Владельцами софта мы перестали быть лет 20 назад.
Просто кто-то не читает тексты лицензий.
И это касается не только Apple, если что.
Владельцами софта мы перестали быть лет 20 назад.


Чушь.
Просто не используйте для софта принципы, применимые только к материальным предметам.

Владелец софта — это его разработчик или тот кому разработчик передал права на продажу софта.

От того, что вы «купили MS Office» вовсе не следует, что теперь у вас есть права на многократную перепродажу лицензий на MS Office. А у фирмы Microsoft — эти права есть. Вот её и можно назвать «владельцем софта», а вы всего лишь «владелец экземпляра».

а вы всего лишь «владелец экземпляра».

Нет.
Владелец права использования без права передачи другому лицу.

Ограниченного неисключительного права использования.

а вы всего лишь «владелец экземпляра».

Нет.
Владелец права использования без права передачи другому лицу.


Необязательно.
К примеру в Германии даже Windows по лицензии OEM, что во всех странах привязана к железу и умирает вместе с ним, высудили право продавать.
Разумеется, не большее число экземпляров, чем купили.
Владелец тех прав, которые предоставлены лицензионным договором. Если это — свободная лицензия, то права довольно обширны, но даже в этом случае владелец софта — кто-то другой.
Немного дополню — я лично под текст «Владельцами софта мы перестали быть лет 20 назад.»
Например 20 лет назад заплатив за лицензию Photoshop я не становлюсь владельцем программы но я могу пользоватся ей сколько захочу, пока у меня работает железо и операционка. А вот сегодня к примеру по хотению Adobe Photoshop перестанет работать по всему миру, кончится срок подписки и они например не будут больше его продлевать — а выпустят что то новое например…
Немного дополню — я лично под текст «Владельцами софта мы перестали быть лет 20 назад.»
Например 20 лет назад заплатив за лицензию Photoshop я не становлюсь владельцем программы но я могу пользоватся ей сколько захочу, пока у меня работает железо и операционка. А вот сегодня к примеру по хотению Adobe Photoshop перестанет работать по всему миру, кончится срок подписки и они например не будут больше его продлевать — а выпустят что то новое например…


Это особенность конкретно Photoshop и лет этой особенности не 20, а всего лишь несколько.
Вот в этом и вопрос, насколько есть шанс пользоваться софтом без подписок.
MS Office последние пару лет тоже идёт в коробочной версии гораздо более урезанный, чем в подписке на Office 365, и я, естественно, не про облачные файлопомойки

Больше того, вы его продать могли спокойно. Что для меня гораздо больший ярлычек права владения. А стим игру уже не продать особо без доброй воли стима (есть ли она я честно говоря не помню)

>> Чушь.
Вы поосторожнее с такими высоконадёжными заявлениями, а то я всё же напрягусь и найду политику лицензирования Alias PowerAnimator, например, который ещё 30 лет назад был исключительно _арендуемым_ продуктом.

Просто люди только сейчас начали понимать(когда это стало действительно массовым явлением) что они ничего никогда не покупали, они всё это время — арендаторы.

>>Это особенность конкретно Photoshop и лет этой особенности не 20, а всего лишь несколько.
Да ну? А вы исследования проводили, да? Вчитывались в лицензии?

PS: Надо будет Valve/Steam сообщить что они — «всего лишь частный случай и им всего лишь несколько лет». На Хабре специалисты сказали, ага.

linustechtips.com/topic/953835-you-own-the-software-that-you-purchase-and-any-claims-otherwise-are-urban-myth-or-corporate-propaganda
А что такое инфраструктура материнской платы?!
Интел предлагает «убогое» решение — CPU + мост. А на мамке у вас — разъемы, питание, ну и пара ПЗУ флешек с батарейкой. Ну и какой нить суперио чип, для всяких клавиатур и тпм.
Все остальное — в 2х чипах интел. А именно:
В мосте — контроллеры SATA, PCIe, Ethernet, USB и прочие вайфаи и итуси. В процессоре — контроллеры RAM, PEG (PCIe для видюх), графика, ME и прочие эмэмикмсы.
При этом я не понимаю зачем закладывать в мост 15 портов PCIe или 16 SATA или 16 USB, плодя количество ножек в геометрической прогрессии…

Большинство ARM — это SoC, без моста, все в проце. А Apple еще на него влепила RAM — вообще красавцы, выкинули сложную и не любящую тряску DRAM, заменив ее на memory-down. Мамка в таком варианте — просто плата со слотами расширения и развязкой питания. Какая тут инфраструктура? Нет моста — нет проблем при переходе между поколениями процессоров.

При этом у интел есть еще гадки ME, который не слабо потребляет, и хрен знамо чем занят. И загрузчик для интел (БИОС) — это тоже монстр в пинетках из UEFI, в котором черт ногу сломал. У ARM — все гораздо проще, лучше и понятней.

А запустить игру 99 года — можно и через эмулятор x86.

P.S. Uboot для ARM собирается GCC, под линукс. Интеловский EDK2 (скелет для UEFI BIOS) — лучше всего собирать в MS Visual Studio. У интела система сборки на «батничках». Когда увидел это — понял, они все, закончились.

Проснитесь, сейчас и интел комбайны делает в ноутбучном сегменте. Только ноутбук и смартфон — это 2 большие разницы, хотя бы по организации питания: разница на порядок. И интеграция компонентов в кристалл ни к чему хорошему не привела. Будет проще, говорили они. Будет дешевле, говорили они. Не стало проще, не стало дешевле. Комбайны вылетают, особенно из-за вечной интеловой проблемы с юсб, реже — из-за повреждения vrm, стоимость замены камня сравнима со стоимостью ноутбука, если цена, по крайней мере, до 30 тысяч, но не суть, потребителю не легче. Раньше это была замена относительно копеечного моста, особенно во времена южников/северников, ибо их состав позволял выпускать себя на старом окупившем себя обррудовании. Процессор же занимался сугубо своими делами, и от косяков остальной части пк не страдал. Если ноутбучные/настольные армки будут по цене хотя бы вполовину интела при равной скорости, либо ниже, то это еще куда ни шло. В противном случае, это очередной виток закабаления поребителя.

ибо их состав позволял выпускать себя на старом окупившем себя оброудовании

и в результате чипсеты грелись едва ли не больше Атомов.
Все же помнят кулеры на чипсетах — это оно — старое, окупившее себя решение.
дык никто ж не мешает выпустить чипсеты более нового поколения, менее жрущие. Старого оборудования сейчас завались, никто не заставляет на 90 или даже 130 нм гонять) Но это все равно удешевляет для потребителя. Впрочем, может рано или поздно придется вернуться. Вон, третьего дня проскакивала новость, что ЕС с 21 года вводит много интересных требований к производителям касаемо бытовой техники и электроники в плане ремонтопригодности. Не факт, что и до этого корыта не доберутся. В любом случае, не дело это, пихать все яйца в одну корзину. Правило старое, как яйца динозавра, пардон за каламбур) Как я написал выше, потребитель от этого вообще не выиграл кошельком ни разу. Интел упростил задачу лишь себе и компаньонам по отрасли. Техника стала лишь дороже но вместе с тем гораздо менее ремонтопригодной. И при всем при этом потребителя еще и постепенно приучивают к этому.
AMD выпустила X570.
Кто-нибудь сделал на нём материнку без кулера?)
UFO just landed and posted this here

Удалось найти только mini-ITX от Asus, там, похоже, вентилятора нет на чипсете… Но есть 2(!) вентилятора на питании.

UFO just landed and posted this here

У этого пока X370… зато с wi-fi и за шапку сухарей.

Я без подковырки спрашиваю, минимум полгода не слежу за этой ситуацией. Просто помню, когда Х570 выходил, первые 4 или 5 материнок были с кулерами, типа не смогли обеспечить тепловой баланс без них
UFO just landed and posted this here
Нет моста — нет проблем при переходе между поколениями процессоров.

Лютый, феерический бред.
Запустите-ка прошивку от телефона А на телефоне Б. Там же ARM SoC, экономия ножек, все дела. Я даже на инженерных версиях железа готов запустить (чтобы исключить secure boot и проверку подписи вендора).

о, эксперты с 4пда прибыли…

Берешь последний ролик coldfusion с ютуба, переводишь и выдаешь за свою статью

А что вы ещё хотели от ещё недоученного журналиста, по большей части гуманитария? Он давно славится такими косячками.
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here

Помнится, когда-то продавались книжки, пересказывающие сюжеты популярного голивудского кино. Это видимо что-то в этом роде.

Надо бота написать, который будет брать автоматически сгенерированные субтитры, переводить их, делать скрины, форматировать в пост и постить в бложик.
А, да! И рекламный блок в конце вставлять! Куда же без рекламного блока.

На утубе это есть больше 5 лет уже, парсить ничего не надо.

Я в какой-то момент поискал глазами ссылку на оригинал и удивился, не найдя её. По высокому качеству материала, обилию ссылок на англоязычные ресурсы и лёгкому косноязычию становится очевидно, что это перевод.

Имхо, главное преимущество x86 на сегодня — всеобщая совместимость. Если у меня есть какое-то устройство с процессором x86, то я могу зайти на сайт любой операционной системы, скачать сборку (Win/Lin/CrOS/etc) и, вероятнее всего, она успешно встанет на мой компьютер. И наоборот, покажите мне хоть одну ОС, которую я могу установить на произвольно выбранное ARM-устройство. Нет таких, это невозможно — под каждый планшет своя прошивка и т. д.

А еще тонны старого ПО, которое запустится или сразу или несложной подготовки среды выполнения.
… преимущество x86 на сегодня — всеобщая совместимость...

с появлением ресурсов подобных github, появилась неплохая альтернатива бинарному распространению софта
для тех кто используют к примеру Gentoo — архитектура (обратная совместимость) имеет меньшее значение чем производительность, энергоэффективность
И какова доля Gentoo среди прочих Linux пользователей? Это либо для энтузиастов, либо для тех, кто готов выжать из наличного железа самые большие попугаи.
Но для пользователей важно удобство, для корпоративного использования — вендор с поддержкой, сертификацией и курсами.
В результате Gentoo реально нужен единицам процентов. Даже среди (в среднем) продвинутых Linux пользователей.
Кстати, как представитель махрового ынтырпрайза, должен отметить, что даже за установку свежего unzip из исходников машину снимают с поддержки (вот так вот). В лучшем случае — соберут куда-нибудь в пользовательскую папочку, после десятка согласований.
Как бывший пользователь кровавого ынтерпрайза в виде RHELа на поддержке — я просто писал тикеты, что что-то не работало/глючило, а в результате переписки прилетали скрипты и пакеты с инструкциями, как это поставить, собственно голова у меня не болела о «надо бы новый libwornderass скомпилить и поставить чтоб pimpmyfsck завелось», она болела у техподдержки красношляпых, у меня иногда только болела пятая точка с фразой «СРОКИ!!!!»
Как нынешний пользователь генты я сам понимаю, что я тут ССЗБ во всей красе, зато получаю именно то, что моя пятая точка себе хочет заиметь.
просто писал тикеты, что что-то не работало/глючило, а в результате переписки прилетали скрипты и пакеты с инструкциями, как это поставить, собственно голова у меня не болела о «надо бы новый libwornderass скомпилить и поставить чтоб pimpmyfsck завелось», она болела у техподдержки красношляпых

Тоже рабочий вариант, если у вас есть много времени.
Я работал (работаю) в RnD, там обычно просят «побыстрее».
UFO just landed and posted this here
На том же гитхабе часто есть релизы с собранными через CI/CD бинарниками. Предпочитаю их, т.е. для сборки нужно доставлять кучу библиотек и разгребать ошибки сборки…
В Gentoo зависимости и правила сборки реализованы на уровне менеджера приложений
Это с вашей точки зрения преимущество, а с точки зрения производителей — недостаток. Представьте, как было бы хорошо производителям ПК и ноутбуков, если бы они могли примерно раз в пять лет выводить старые устройства из оборота, принуждая пользователей купить новые. ОС не обновляется, лишается поддержки необходимого софта, модернизация невозможна — пользователю остаётся только идти в магазин на новым устройством. Microsoft тоже будут в восторге — наконец-то можно будет залочить загрузчик винды, запретить запускать неподписанные приложения, и брать 30% комиссии с каждой проданной программы под винду, попутно практически искоренив пиратство. Боюсь, при поголовном переходе на ARM нас ждёт именно такой мир. По крайней мере, никто из производителей железа не высказывает заинтересованности в создании открытой, свободной, и стандартизированной системы на ARM, подобно той что существует для x86.
Будем надеяться, что для нвидии это станет выгодно, и она таки это сделает. А затем станет монополистом, заломит цены, и все уйдут, например, на risc-v.
Имхо, главное преимущество x86 на сегодня — всеобщая совместимость. Если у меня есть какое-то устройство с процессором x86, то я могу зайти на сайт любой операционной системы, скачать сборку (Win/Lin/CrOS/etc) и, вероятнее всего, она успешно встанет на мой компьютер. И наоборот, покажите мне хоть одну ОС, которую я могу установить на произвольно выбранное ARM-устройство. Нет таких, это невозможно — под каждый планшет своя прошивка и т. д.

А зачем эта совместимость, если имеется определённый шанс, что что-то не взлетит под другой осью. Например:
1) Не будет дров вообще под Win7/Win10.
2) Конкретно эта сетевая/wi-fi/BT карты не запускаются под конкретно этим дистрибутивом Linux.
3) Всего хватает, но энергосбережения и оптимизацию не завезли, в итоге ноут работает полчаса вместо четырёх.
4) Мощности самого железа не хватает, чтобы тянуть эту самую новую сборку.
Нет, вы не подумайте, я не топлю против очевидной пользы обратной совместимости. Я лишь хочу сказать, что она не настолько всемогуща.
А поставьте мне windows 7 на Kabylake? Думаю, вы удивитесь, что у вас USB не работает…

Сегодня миром правит сетевой формат — 70% пользователей плевать, что у них за процессор и ОС, главное чтобы браузер запустился, а в нем их любимая ферма/елочка/индикот…

Не понятно как в диаграмме из обзора Anandtech разрыв между 7700к и 9900к может быть в 10%, при том что в 9900к в 2 раза больше ядер и потоков

Это производительность на одно ядро.

«Огромная производительность в расчёте на ватт» — примерно одинакова с Zen 2, и хуже, чем у Zen 3. Хайперам Apple приходится выдумывать ложные факты для подкрепления своих выводов?

Если вы начнёте смотреть на реальное потребление энергии вместо бумажных TDP вас ждут интересные открытия.image

Что такое этот "idle normalized power"?

С вычетом пассивного потребления без нагрузки. Потребление CPU в телефоне иначе не замерить.
Потребление M1 в одноядерной нагрузке замеряли точно, и оно находится в тех же границах: image

Претензия не к Вам конечно, но промолчать не смог — когда же уже первой строкой и красными буквами в инструкции к построению графиков будет правило «не делайте индикаторы цветов в легенде размером с 3 пикселя, невозможно сходу отличить какие там цвета».
Там ещё веселее — у одного графика точки иного цвета, нежели линия, причём цвет точек (каковые и выведены в легенду) совпадает с цветом точек другой линии. Я долго думал, как это так интел затесался среди армов.
Я тоже вечно бугурчу когда вижу такое. Но я списывал все на свой дальтонизм.
а где взять такую же для многопотока?
UFO just landed and posted this here

Он там расположился бы чуть выше A13, если бы эти замеры делали сейчас, а не до выпуска A14 и M1.
Улучшенный тех. процесс + больший результат в Geekbench при примерно том же максимуме потребления.

UFO just landed and posted this here

Это был ответ на:


«Огромная производительность в расчёте на ватт» — примерно одинакова с Zen 2

Мне кажется, картинка достаточно хорошо иллюстрирует кардинальный разрыв в этой метрике между ядрами от Apple и Zen 2.
Zen 3 в мобильном исполнении на данный момент не существует, а десктопные версии плохо помещаются на этот график по горизонтальной оси:
https://www.reddit.com/r/hardware/comments/jrt0ay/apple_announces_the_apple_silicon_m1_ditching_x86/gbxiaaf/

Видел еще перл сравнения безальтернативного GPU Аппле с GTX 1050, не 2080, и даже не 1660/1080!

А в чём перл? Это CPU с интегрированной видеокартой для лёгкого ноутбука с пассивным охлаждением. Интегрированные GPU от Intel и AMD сильно слабее, поэтому, чтобы хоть с чем-то сравнить, нашли близкую по производительности дискретную карту.

В том что у М1 выпущенного в 2020 году другого GPU не будет.

Так же, как не будет и у тысяч других ультрабуков со встройкой и без Thunderbolt.
Почему его GPU надо сравнивать именно с 2080 или 1660/1080? Эти карты в принципе не влезут в нужный энергопакет. С тем же успехом можно поставить рядом десктопную 3090 и насмехаться.
Тем временем, на рынке интегрированных GPU ничего сравнимого просто нет.

Интеловские процессоры стоят только в ультрабуках? На сколько я знаю с М1 НЕЛЬЗЯ использовать внешний видеоускоритель.

M1 сейчас стоит только в ультрабуках (Mac Mini — отдельный разговор) и именно для них делался.
С любым ноутбуком без Thunderbolt нельзя использовать внешний видеоускоритель. Не говоря уже о том, что ниша использования eGPU довольно узкая.

С любым ноутбуком без Thunderbolt нельзя использовать внешний видеоускоритель.

Спорное утверждение. Еще 10 лет назад, сняв задюю крышечку, к ноутбукам подключали PCIe видюхи :)
Знатное извращение, но ведь работало!
А ещё с ExpressCard можно подключать. Точно работало на Thinkpad x220/x230.
И получали PCIe gen1 x1 =) В лучшем случае gen2 x1. Сейчас можно конечно через m.2 вытащить gen3x4, но лишаться NVMe ради игровой видюшки…
По сравнению с Intel HD 2500 / 3000, даже gen1 x1 смотрелось многократно лучше.
Иначе бы никто бы внешние почки видеокарты так и не подключал бы.
Это конечно так, сам использовал T61 с докстанцией, в которой стояла уже «игровая» видеокарта (с потреблением не выше 70Вт).

Покрутить бы этот М1 в своих руках. А то никак не могу избавится от подозрений что эпл оптимизировала некие узкие задачи, на которые и делают упор бенчмарки. А geekbench вызывает серьёзные сомнения в репрезентативности при сравнении разных архитектур — например, на древнем Xeon X5650 браузер летает, а на Galaxy S9 та же страница "подлагивает", несмотря на бОльшую производительность на ядро у телефона.

UFO just landed and posted this here

Это легко объясняется тем, что все эти тесты много лет оптимизировались под x86, включая использование ассемблерных вставок с AVX инструкциями: https://forums.anandtech.com/threads/new-apple-soc-m1-for-lower-end-macs-geekbench-5-single-core-1700.2587205/page-42#post-40361688
Под ARMv8 никто их не оптимизировал, в лучшем случае перекомпилировали "что есть", иногда получая результаты хуже, чем у x86-версии с SSE-оптимизациями через Rosetta.

UFO just landed and posted this here

Серьёзно? Кучка разношёрстных кусков кода, про которые достоверно известно, что многие оптимизировались исключительно под x86, лучше, чем набор специально подобранных и предназначенных для кроссплатформенной оценки разных аспектов производительности CPU тестов (SPEC2006/2017, Geekbench)?


Про какую непредвзятость вы сейчас говорите вообще?

Geekbench — это набор платформозависимых бенчмарков для различных аппаратных ускорителей. К производительности CPU это очень слабо относится.


Комментарий Линуса Торвальдса:


On ARM64, that SHA1 performance is hardware-assisted. I don't know if SHA2 is too, but Aarch64 does apparently do SHA256 in the crypto unit, so it might be fully or partially so.

And on both ARM and x86, the AES numbers are similarly just about the crypto unit.

So basically a quarter to a third of the "integer" workloads are just utter BS. They are not comparable across architectures due to the crypto units, and even within one architecture the numbers just don't mean much of anything.

And quite frankly, it's not even just the crypto ones. Looking at the other GB3 "benchmarks", they are mainly small kernels: not really much different from dhrystone. I suspect most of them have a code footprint that basically fits in a L1I cache.

Сюрприз, на x86 теперь тоже hardware-assisted: https://en.wikipedia.org/wiki/Intel_SHA_extensions


И это Линус писал про GB3, с тех пор они очень хорошо поработали над сравнимостью результатов для разных платформ, и заработали хорошую репутацию. Сейчас в результатах GB5 сомневаются только те, кто не может поверить в то, что ARM в принципе может соревноваться с x86.

Сюрприз, на x86 теперь тоже hardware-assisted: https://en.wikipedia.org/wiki/Intel_SHA_extensions

Вы сначала дочитайте пост, на который отвечаете до конца, потом комментируйте:


And on both ARM and x86, the AES numbers are similarly just about the crypto unit.

Так, а в чём претензия-то тогда?
И там и тут это инструкции процессора, входящие в базовую ISA, которые используются в реальных криптографических приложениях. Тест назван Crypto. Результаты сравнимые.


Сейчас вот Intel Tiger Lake даже выигрывает в этом тесте у M1, что не даёт ему большого преимущества: https://browser.geekbench.com/v5/cpu/compare/5079627?baseline=5078369

Ну я вот тоже, если честно, не могу поверить, учитывая что ARM архитектура создавалась с прицелом на простой и ограниченный набор команд, а также максимальную энергоэффективность. Этот вектор, вроде как, противоположен вектору быстродействия. Физически невозможно на простых коротких командах достичь большего быстродействия, т.к. этих команд потребуется гораздо больше для достижения того же результата

ARMv8 очень далеко ушёл от академических измышлений об ограниченном наборе команд.
Сейчас плотность кода x86 и ARMv8 примерно одинаковая.

У большого количества команд есть свои проблемы. Если мне не изменяет память, то у современных х86 процессоров бывает, чтобы полностью пройти весь пайплан выполнения команды нужно пройти по 12 шагов. И если branch prediction не угадывает, то последующие команды выбрасываются и вам придется подождать 12 тактов, чтобы продолжить работу в нормальном режиме.

UFO just landed and posted this here

Зато их можно параллельно загрузить в 8/16/256 декодеров разом.
Собственно, 8 декодеров были уже в Marvell Thunder.
CISC-инструкции нельзя загрузить параллельно в декодер, не декодировав частично инструкцию — вы просто не будете знать, откуда начинать загрузку следующей инструкции. Поэтому увеличивать ширину процессора для x86 бессмысленно, если не удлинять сами конвейры — что накладывает штрафы на производительность нелинейного кода.
А RISC — он не про упрощенные команды, как многие думают, а про регулярную структуру и заточку на максимальное быстродействие команд.


Хоть ликбез пиши…

UFO just landed and posted this here

С большой шириной уже скорее в ROB упор пойдет — в худшем случае нагрузка на него будет расти как произведение одновременно выходящих с конвейров операций на количество операндов.
Зато можно сбросить частоты, сохранив производительность, что даст возможность понизить напряжение, отчего мощность упадет уже в квадрате — дополнительно к снижению от понижения частоты.


Но да, бутылочных горлышек еще хоть отбавляй. Собственно, их преодоление и обеспечивает рост.

Не противоположен. Вон ИБМ до сих пор выпускает для серверов PowerPC процессоры. Которые RISC. B RISC архитектура это не для слабых процессоров создавалась, тогда вообще не думали особо об энергоэфективности.
Да и x86 внутри RISC фактически.
UFO just landed and posted this here
UFO just landed and posted this here

Вы же отлично понимаете, что это не произвольный набор непонятно чего, а именно что отобранные и проверенные целым комитетом куски кода. И SPEC отвечает за результаты своей репутацией.

UFO just landed and posted this here

У вас есть какие-то конкретные факты, что "более реальные" задачи выполняются на M1 хуже, чем на Intel аналогах, при прочих равных?


Если нет, тогда к чему эти спекуляции про затачивание под тесты?

UFO just landed and posted this here

Я уже показывал вам результаты цивилизации через Rosetta:
https://www.tomsguide.com/news/macbook-pro-m1-benchmarks-are-in-and-they-destroy-intel
https://www.macworld.com/article/3597198/13-inch-macbook-pro-m1-review-amazing-breakthroughs-in-processing-and-battery-performance.html


И нет, это не "при прочих равных" и не про процессор.

UFO just landed and posted this here

Посмотрите cinebench r23. Имхо, самый объективный бенчмарк.

Cinebench меряет производительность в одной конкретной задаче на одном конкретном "render engine". Его результат нельзя считать взвешенной оценкой производительности CPU в целом.
Плюс к нему тоже есть ряд вопросов:
1) насколько хорошо его успели портировать под M1, учитывая, что под x86 оптимизировали много лет?
2) низкая загрузка CPU на M1

Ну, 23 версию создавали для arm, а не для m1.
Проверить ее можно сравнив результаты обычных х86 процессоров с результатами в прошлых версиях. Насколько знаю, там примерно паритет.
Мне этот тест нравится тем что измеряет грубую производительность. Я думаю со временем вопрос с низкой загрузкой решат или дадут объяснение.

У М1 гетерогенная архитектура. Если под конкретный бенчмарк у М1 есть подходящее специализированное ядро — то он с лёгкостью уделывает конкурентов, если нет — то сливает по полной.

А сейчас бывает что-то не гетерогенное? Даже простые микроконтроллеры сейчас со спецядрами, как минимум, для CRC и крипты.

Подскажите, что за специализированные ядра отвечают за архивацию (выигрыш есть в и zip, и в 7zip), браузер (JS) и компиляцию кода (на ютубе есть сравнения и с 8ми ядерной прошкой)? Когда уже Intel их себе тоже добавит?
FJCVTZS не является изобретением Apple, а является частью спецификации ARM.
Это просто режим работы преобразования float->int, где определяется что делать если число не влезает в int. FCVTZS делает насыщение до 0x7fffffff, FJCVTZS оставляет модуль 2^32.

Вы ведь помните что в Pentium 4 были специальные инструкции для «ускорения Интернета»? :)

Intel calls the new architecture of Pentium 4 'NetBurst'. The idea behind this name is for me just as unfathomable as the 'Internet SIMD Streaming Extension'

Да я в курсе :)
Но для современных JIT-компиляторов JS вполне полезная инструкция, дающая аж до 2% ускорения на некоторых примерах, поэтому можно с натяжкой сказать, что это специализация под браузер.

Чтобы не быть голословным, (вы ведь не пытаетесь нас обмануть и не выдумали это только что?) не будете ли вы так любезны, предоставить список с названиями бенчмарков, указанием какое «специализированное ядро» они используют и какое преимущество это даёт?
Зачем мне это? Про гетерогенную архитекутур говорит сам Apple, упоминая всякие Neural Engine и Final Cut Pro.
Мне же искуственные попугаи бенчмарков фиолетовы — пусть лучше сравнят что-нибудь вроде вычислительной гидродинамики в каком-нибудь Ansys Fluent.
Ну как же, вы сделали кхм… смелое заявление и сразу сливаетесь :)

Если под конкретный бенчмарк у М1 есть подходящее специализированное ядро — то он с лёгкостью уделывает конкурентов, если нет — то сливает по полной.

Так в каких тестах сливает по полной из-за того, что якобы не нашлось акселератора?

упоминая всякие Neural Engine и Final Cut Pro.

Давайте наконец выясним, как Neural Engine помогает тому же Clang?

в каком-нибудь Ansys Fluent.

В SPEC2017 есть тест просчёта динамики жидкостей 519.lbm_r

www.anandtech.com/show/16252/mac-mini-apple-m1-tested/4
M1 там всех обгоняет в однопотоке: любой Интел (с большим отрывом) и даже Ryzen 3 =)
Вот ведь какие хитрецы! Наверное встроили «специализированное ядро» для просчёта fluid dynamics ^_^

А как по мне, ваш Ansys Fluent есть такой же «фиолетовый» бенчмарк, а вот Clang инструмент, которым я пользуюсь постоянно.

А что если запустить виртуалку с андройдом на зеоне и потестить производительность на ней и на смартфоне?

Ну я согласен с тем, что андроид плохо оптимизирован, но исполняется то он на трубке нативно а не через ВМ.

Лицу, пожелавшему остаться неизвестным, спасибо за плевок в карму. Во что это хабр превращается, если за предложение сравнить производительность там и тут так весело карают?

UFO just landed and posted this here
Во что это хабр превращается, если за предложение сравнить производительность там и тут так весело карают?

В рекламную платформу корпораций?
UFO just landed and posted this here
А какое отношение GB3 имеет к современному GB5? Ровным счётом никакого.
Это всё равно что делать выводы про Taycan на основе опыта эксплуатации Lohner-Porsche.

Другие тесты, другая методика, другие датасеты.
В GB3 мобильные и декстопные тесты использовали разные датасеты.
Сейчас, когда мобильные чипы соперничают с десктопами, тесты не отличаются ни чем.
GB3 полное говно, а GB5 вполне годный кроссплатформенный бенчмарк.

оптимизированный под Apple бенчмарк.
И что же в нём оптимизировано под Apple?
Давайте детали, не томите уже =)

Даже если бы Clang, LZMA, PDF, HTML парсеры бы как-то хитро оптимизированы под Apple, то сравнивать платформы Apple (x86, ARM) всё можно было бы, верно?
А что за узкие задачи? Браузер, архивация, работа с фото, работа с документами? Это все тестируется.
UFO just landed and posted this here
Еще интересно то, что все тесты, где новый arm побеждает x86, сделаны этим гикбенчем

Прям таки все? =)
www.anandtech.com/show/16252/mac-mini-apple-m1-tested
techcrunch.com/2020/11/17/yeah-apples-m1-macbook-pro-is-powerful-but-its-the-battery-life-that-will-blow-you-away

то он там тестирует — неизвестно

А вы… пытались узнать?
www.geekbench.com/doc/geekbench5-cpu-workloads.pdf
www.geekbench.com/doc/geekbench5-compute-workloads.pdf
support.primatelabs.com/kb/geekbench/interpreting-geekbench-5-scores
UFO just landed and posted this here
В основном, по крайней мере.

Если бы вы прошли по ссылке, то увидели бы тестирование в SPEC и других бенчах.
SPEC разумеется показывает тоже самое что и GB. Потому что ядро Firestorm очень мощное и справляется с любыми задачами.

Что они там сами о себе пишут, мне категорически не интересно,

Занятно… То вы утверждали что это якобы «неизвестно», но как оказывается всё прекрасно известно, просто вам не интересен данный вопрос.

В описании представлены опенсорсные программы и библиотеки которые они тестируют в купе с описанием датасетов.

Тесту, который прячет свои исходники, априори никакого доверия.

Вам кто-то мешает скачать те же самые программы и запустить?

у самого интела такая тема была с пентиум 4. который неплохо «ускорял интернет» в тестах, но проигрывал в играх и других программах, где было сильное ветвление кода.

А с чего она большая? Браузерный тест mozilla kraken выполняется на Galaxy S9 за 3200 ms, а на древнем C2D E8400 (недалёком в однопотоке от зиона) за 1800 ms.

Ну а по гикбенчу телефон быстрее, я к чему и клоню — что он не репрезентативен.

Покрутить бы этот М1 в своих руках. А то никак не могу избавится от подозрений что эпл оптимизировала некие узкие задачи, на которые и делают упор бенчмарки.
не удивлюсь, мне тут недавно заявили, что замеры автономности при просмотре видео на MBP надо измерять только в православном iTunes. Тогда, возможно, при совпадение всех условий вы получите те цифры, которые заявляет Apple
а где надо смотреть? в vlc? и если я в дороге, ессено я хочу, чтобы батарейка жила дольше, и чтоб фильм крутился на железе, а не софтово
В целом я согласен со статьей. Могу даже добавить свое мнение, что еще одна причина упадка Интел в том, что она «заигралась в корпорацию». Все это надувание щек, вкупе с откатами «эксклюзивным дилерам» и прочее выкручивание рук в долгосрочной перспективе отталкивает клиентов.
Но я еще хотел спросить, вот вы рассказываете про закат х86 и восход ARM. А в конце статьи пишите, что сдаете в аренду «эпичные» сервера с процессорами Intel и AMD. Вам не кажется, что немного нелогично?
Всё просто, это вопрос приоритетов. Intel сейчас генерирует хорошую выручку с большой маржой. Акционеры счастливы. Если сейчас сильно вложиться в R&D, построить новые заводы в США для производства 3 — 5 нм чипов — это миллиарды долларов. Акционеры будут несчастны. То что компания застряла в развитии сегодняшних акционеров не волнует.
UFO just landed and posted this here
А если добавить к этой сумме строительство супер-пупер 3 нм фабрики. Вот TSMC недавно завершила строительство такой фабрики, общий объём ивестиций в неё оценивается в 19.5 млрд долларов.
UFO just landed and posted this here

А расскажите, какие заводы за миллиарды и десятки млрд долларов построила Интел в последние годы?

UFO just landed and posted this here
UFO just landed and posted this here
Сегодня статью прочитал по теме: Контрактные производители полупроводников отметились самыми большими расходами в отрасли в 2020 году. Да, у Intel большая производственная база. Но это оборудование устаревающее. Чтобы не отставать, им нужно строить новые и модернизировать существующие производственные мощности опережающими темпами. Но по факту этого нет.
Обвалится Интел или нет, взлетит ли Эпл на рынке десктопных процессоров — решит потребитель, на сегодня «подстелить подстилку на будущее», как делает это Nvidia с АРМ не является 100% гарантией успеха. Гарантией успеха будет появление новой «удобной технологии», какой было появление Windows. На устоявшемся рынке тяжело делать какие-то значимые изменения, я думаю если Интел с АМД и «падает», то это может занять поколение..)
RISC-V. Лет через 10 будет в каждой лампочке, кармане и десктопе (если к тому времени такой класс вычислительных устройств не прекратит существовать). И произойдет это, скорее всего, блягодаря китайцам — в погоне за экономией на лицензионных отчислениях, подстегиваемые различными санкциями, китайские производители электроники завалят весь мир своим го^H^Hдобром.
возможно он там и будет, но пока псевдо-RISC xTensa мне кажется там больше сидит нежели кто-то другой.
UFO just landed and posted this here

Не ещё.
Компьютером, как вы его понимаете, он никогда и не станет.
Хотя, мой старый iPad Air с джейлом пытается. Но сами понимаете...

Эниак сторонние приложения поддерживал?)

чем плохо приложение на HTML+JS+CSS?
Тем, что оно почти наверняка медленное, будет инициироваться очень долго (особенно, на первом айфоне) и лопать кучу всё ОЗУ?
Ну, и браузер там давно не обновляется, что создает проблемы современным… писателям приложений на HTML+JS+CSS.
это сейчас оно было бы долго и не обновляется, а в 2007 вполне норм — jquery и погнал.
В те времена пробовали Firefox OS с подобным подходом, что-то не взлетело.
железо слабое, они в Low сегмент метили. я напал такой девайс. однако же, kaios — наследник, в Индии на ура
А что там, игорей под Мак на арме уже завезли? А видяшку через пару лет поменять на более другого производителя можно будет? А без видяшек, конторские замониторные машинки за $300 купить можно? NUC (с диском и ОС) за эти деньги купить можно, мак мини почти в три раза дороже. Основную массу ПК сегодня покупают или в офисы работать, или домой отдохнуть — поучиться — поиграть. А ещё гестапо MacOS далеко не всех устраивает.
Обычное такое, купертиновское. Где лучше пользователя знают, чего он хочет.
Не стоит удивляться, если это будет процессор с 6-16 большими ядрами, а в течение 18-36 месяцев мы увидим следующее поколение с 16-32 большими ядрами. И преимущество архитектуры ARM никого не будет удивлять на рынке и настольных компьютеров, и серверных систем.


Преимущество x86 не сводится только к повышенной производительности и пониженному потреблению энергии. Важная часть — совместимость между устройствами и операционными системами. Сегодня я могу взять флешку с Дебианом и поставить его почти на любой x86 компьютер. С ARM такой номер не прокатит. Даже похожие ARM устройства требуют каких-то уникальных драйверов (часто несвободных) и каких-то плясок.

Вот когда для ARM будет достигнута совместимость на уровне подобном x86, Интелу можно будет насторожиться. А пока — нет.
честно говоря, вот тут я не вижу особой проблемы. С учетом того что в современном программировании, переводом в процессорный код занимается компилятор.Не говоря о Java и скриптовых языках программирования.
При нужном компиляторе, проектов 80% можно будет собрать одним кликом мыши, с выбором галочки «собери под arm».
Да, возможно что то поправить будет нужно, но это не будет переписыванием кода с 0.
При нужном компиляторе, проектов 80% можно будет собрать одним кликом мыши, с выбором галочки «собери под arm».


Дело не в приложениях, а во взаимодействии железа и операционной системы. Для ARM нет стандартной открытой архитектуры, подобной той которая в своё время возникла с IBM PC. Почему ГНУ/Линукс, Виндовс, БСД и прочие операционки могут запускаться на незнакомом железе? Всё потому что есть набор поддерживаемых стандартов или стандартного железа. В мире ARM всё иначе. Каждой новое ARM устройство получается несовместимым с существующими операционными системами и требует какую-то свою уникальную прошивку, драйвера и хитрые настройки, известные только производителю.

Именно это сдерживает рынок ARM устройств от взрыва, способного снести Интел.
Опять же, требуется всего лишь время, создадут альянс стандартизации, назовут как-нибудь унифицированная архитектура ARM, и будет счастье в этой области.
Насколько помню x86, что то подобное проходили или как раз пришли к этой идеологии в x86,
Опять же, требуется всего лишь время, создадут альянс стандартизации

Требуется время, да. Но не только время. Нужно ещё желание. Захочет ли этого, например, Эппл, который делает всё, вплоть до штекеров нестандартным? Если бы стандарт был нужен, его бы уже сделали. Похоже что пока всех, от кого это зависит, всё устраивает.

А значит Интел может пока расслабиться. К сожалению.

Да господи, интел завтра sleep() из микрокода уберет и выпустит очередные "революционные" процы, которые они хранили на случай проблем.


Как это было при переходе от Netburst к P6, перемаркированной в Core.

P4 долго сливал их же P!!!, сперва в виде Tualatin, потом Pentium M и Core.
А потом его выкинули.

Core — это и есть перемаркированная и улучшенная P6 (это не Pentium 6, а название микроархитектуры).


Pentium 4 базировались на другой микроархитектуре — NetBurst

Ага-аа… Оно же i686.
Осталось найти, в каком месте выкидывание sleep() из микрокода этих самых NetBurst (вместе со всей линейкой) привело к улучшению производительности P6, к ним отношения не имеющего.
Да и первые Core микроархитектурно сильно ушли от родоначальника.

U-boot уже умеет заводить UEFI поверх себя.

Пруфлинк, пожалуйста. Понятно, что это про ARM, а не про x86, но все равно очень смело звучит.
Или закрывает патентами так, что сами не могут пользоваться(лайтниг передает привет, заставляют в ЕС переходить на usb type C) или никто не хочет(firewire передает привет с того света, жаль хорошая технология, для внешних hdd шик по сравнению usb 2.0 — выше скорость передачи, нулевая загрузка cpu)

Нулевая загрузка CPU, нулевая безопасность. Шикарная технология, да.

UFO just landed and posted this here

Например, вот
И, похоже, security к нему не первый год прикручивают. То ли резьба не та, то ли руки не той модели…

Плюс FW не в загрузке CPU, а в стабильности потока. Именно поэтому оно рулило в audio/video, где USB сливало из-за пакетной негарантированной скорости
Компании подобные интел живут в перспективе лет 15.
До текущего времени была монополия на процессоры для рабочих станций, и серверов(AMD и Intel). Причем обе компании Американские.
Теперь Apple, пусть не самый большой игрок, но определенное значение в ИТ имеет, ставит в свою технику ARM. Тем самым показывая что процессоры доросли до премиум сегмента. Замечу, это несмотря на большие издержки по переносу ПО на новую архитектуру.
Второе Китай сейчас ссорится с Америкой, и они имеют мощности для производства своей компонентной базы. Что дает определенный вектор на создания алианса.
Третье в геополитической картине получилось так, что все кто опоздал, оказались не удел в создании процессоров(тут Америка всех выиграла и держит монополию), и нагнать на x86 архитектуре до последнего момента было не реально. А вот архитектура ARM позволяет сократить такой разрыв.

Поэтому может быть рано говорить что Intel не удел, но и не все так радужно со стороны Intel и AMD.
RISC-V убежал в Швейцарию подальше от США.
Британская архитектура во владении американской компании — в это остальным невыгодно вкладываться.
вероятно Вы правы. В любом случае определенные движения «льда» есть.
Дело не в приложениях, а во взаимодействии железа и операционной системы. Для ARM нет стандартной открытой архитектуры, подобной той которая в своё время возникла с IBM PC. Почему ГНУ/Линукс, Виндовс, БСД и прочие операционки могут запускаться на незнакомом железе? Всё потому что есть набор поддерживаемых стандартов или стандартного железа.

Я ни в коем случае не отрицаю возможных бонусов обратной совместимости и стандартизации.
Проблема тут только в одном: если бы оно действительно работало именно так, то не было бы тем вида «посоветуйте ноутбук под линукс», или «а какая сетевая карта заработает под FreeBSD?», или «а я установил OS-name и мой ноутбук стал работать от АКБ в три раза меньше» и не было бы списков совместимости.
То есть да, условная совместимость есть. И часть свежих операционных систем без серьёзных проблем стартанут на свежем железе. А вот будет ли оно пригодно к работе — вопрос. Например у фряхи есть определённые проблемы с рилтек сетевыми (сам сталкивался), которые могут проявляться в том числе и как зависание сетевого стека при определённой нагрузке. Решение в моём случае оказалось поставить другую сетевую карту от Intel.
Так как там гетерогенная архитектура, то для оптимизированных программ ситуация может напоминать программирование для CUDA — тоже надо учитывать кучу всяких ограничений для получения ожидаемого прироста производительности.
это входит в 20% того что будет сложно изменить.
Такие технологии обычно держат крупные игроки, я думаю они найдут ресурсы допилить, или скрыть еще очередным уровнем абстракции.
проблема не в компиляторе, а в том, что чипы от разных производителей включают совершенно разные наборы устройств: у qualcomm одно устройство управления питанием, у apple — другое, а у samsung, вообще, третье.
То есть, выражаясь иными словами, x86 это экосистема и архитектура, а ARM — это просто набор команд центрального процессора. Через это, их и сравнивать-то не корректно.
Выход один — выпускать писюк, но только на арме.
В принципе, да. Не строго IBM PC (там количестов древностей превышает запасники Эрмитажа), но разработать и внедрить аналогичный стандарт для систем на процессорах ARM, или даже общий для всех RISC архитектур. Сегодня сделать такое, может, пожалуй, только Майкрософт.
Ну вот моё предложение как раз в том, чтобы выпустить компьютер с тем же самым железом, кроме собственно процессора. Тогда и разрабатывать ничего не надо будет (почти).
ARMv8 создана с нуля в 2011г. Какой там хвост?
В принципе, конечно, аббревиатура RISC включает слово Reduced, что подразумевает некоторую относительность. Однако же, основным критериям armv8 вполне удовлетворяет: фиксированная длина команд, архитектура load/store, много регистров, отсутствие значительного микрокода.

Если ограничиться только длиной команд, числом регистров и ld/st — то безумный квалкрммовскийи Hexagon тоже RISC. А это вообще VLIW DSP.


Причем забавно, что сама Qualcomm его при этом RISC не считает:


This packet is claimed by Qualcomm to be equal to 29 classic RISC operations; it includes vector add (4x 16-bit), complex multiply operation and hardware loop support. All instructions of the packet are done in the same cycle.

А почему Hexagon — безумный?

Обычно, разделение RISC/CISC применяют к процессорам общего назначения. VLIW DSP к ним не относится. Кроме того, само наличие VLIW, как бы отменяет RISC, по-моему.

Вы программировали под него на ассемблере? Я — да. И реверсил. Это самая странная архитектура, с некоторой я имел дело до этого. Так что "безумный" — мое оценочное суждение.


Насчёт RISC я всего лишь взял ваше определение. К которому вы аппелировали в случае с ARMv8. И по нему выходит что шестиугольник — тоже RISC.

Вы программировали под него на ассемблере?

Я без претензии спрашивал. Из любопытства. Сам когда-то писал под Oak и Carmel DSP, там тоже VLIW, аппаратные циклы и параллельное программирование на уровне ассемблера. Старшие товарищи рассказывали, что это на всех DSP так.

Всё-таки, в DSP обычно есть инструкции которые под RISC никак не подходят.
С другой стороны, и в ARM, и в MIPS, есть DSP расширения (да и другие всякие расширения), так что все эти определения и категории довольно условны
и в ARM, и в MIPS, есть DSP расширения

Вы имеете ввиду команды SIMD для обработки векторов, матриц, FFT и тому подобных вещей?

Да. Они официально называются DSP Extensions
все эти определения и категории довольно условны


Согласен.
В то же время ARM32 значительно «прямолинейнее» и проще. Регистры доступны все. Флаги в инструкции всегда. Вплоть до того, что переходы это загрузка в PC, а относительная адресация от PC использует неявно длину конвеера, и это вынужденно тянется с рождения. И то его Thumb/Thumb2 уже врядли можно считать RISC. (Там уже и про фиксированный размер инструкций как-то забыли постепенно, и условное исполнение блоков добавили).

Кстати, посмотрите как кодируется длинный прыжок в Thumb, это просто адская жесть!

ARM64 ISA полная противоположность 32 битной. Забили на простой декодер ради более компактного кода. Огромное количество сложных инструкций. Их длина действительно фиксирована. Нет прыжков между режимами. Отказ от свободной манипуляции регистрами (PC, SP) — например RET это RET, а не MOV PC, LR. Вместо сумбурных команд с этими операндами (которые не всегда имеют смысл) довольно стройно вписался [W/X]ZR.

Субьективно, основное отличие от CISC (навроде AMD64) только в фиксированной длине команды.
И по нему выходит что шестиугольник — тоже RISC.

С чего бы?
В RISC не упаковывают несколько независимых команд в одну широкую команду.
В признаках, идентифицирующих RISC такого и быть не должно.
Это специфическое свойство VLIW и есть одно из основных его отличий от других.

Вы можете сказать про ARM-овский add+shift, но это одна команда с модификатором источника. Как и lea на х86.
Вы потеряли нить разговора. Hexagon был приведён как контр-пример предложенным RISC атрибутам: 1) фиксированная длина инструкций 2) большое число регистров общего назначения 3) выделенные команды загрузки/сохранения данных.

Заметьте, ни слова о пакетной обработке или характере самих инструкций.

По этим критериям оппонент классифицировал ARMv8 как RISC. Хексагон удовлетворяет всем этим критериям. Но он, очевидно, не RISC.
С тем же успехом можно сказать, что VLIW вообще ортогональна RISC-у. Это просто один из способов распараллелить последовательные вычисления. Т.е. RISC может быть «классическим», суперскалярным или VLIW, в зависимости от того, кто и где параллелит.

Квалкомм не согласна, т.к не считает свои шестиугольники RISC.


Имхо все просто — система команд примитивная? Да — RISC, нет — CISC.

UFO just landed and posted this here

Еще проще — это процессор общего назначения?
Если нет, то это спор об эксцентриситете плоской Земли.

Приложения — да, а вот операционные системы, точнее их ядра — это геморой. Вот я иду в магаз и покупаю себе компутер на х86, пофиг какой и т.д., главное, чтобы железки, которые я в него ставлю, имели дрова под выбранную операционку. Потом я беру и ставлю себе операционку и работаю, далее мне чего-то хочется и я докупаю себе какую-нибудь карту расширения, ну к примеру ТВ-Тюнер в PCIe, ставлю, ставлю её дрова и готово. Потом в пьяном угаре я заливаю пивом материнку, она ломается, я иду в магазин и покупаю другую(туже самую модель или другую — без разницы, главное, чтобы процессор мой туда встал и память), и всё опять работает.
А теперь заменяем x86 на AArch64 и получаю прикол вида «таак, а где devicetreeblock под конкретно эту плату». Сдохла старая материнка, купил другую — снова привет, надо для неё devicetree.
Ну а пакеты да, собираются и работают.

Apple как катализатор перемен выглядит слабо; они могут делать сколько угодно хорошее железо но всегда этому мешают фундаментальные ценности компании:


  1. У Apple слишком маленькая доля на рынке.
  2. Большинство их коннекторов и интерфейсов — проприетарные. А значит для Apple всегда будет меньше возможностей для кастомизации и расширения.
  3. Ограниченная поддержка софта. Железо Apple нормально работает только под ОС от Apple. Все последние макбуки уже много лет хуже работают под Windows и Linux из-за отсутствия профилей питания для процессора, от чего он перегревается, работает медленее и меньше по времени (от батареи).
  4. Быстрая софтовая смерть. 5-7 лет в зависимости от модели и Apple перестает обновлять ОС для вполне живого ноутбука.

Помню как раньше Apple продвигали свои отвратительные интерфейсы (FireWire, Apple Display Connector и прочая дичь) и везде их ждала неудача. Хорошо хоть этим перестали заниматься и поставили USB-C как все остальные. Хотя lightning до сих пор живет.

UFO just landed and posted this here

И не будет. У айфона выход на финишную прямую — скоро не будет вообще никаких разъёмов.

Наконец превратят полностью в настоящий кирпич со слоганом «ваше устройство не разрядится и не сломается, если оно не включается»? :)
последовательно продвигается как минимум с 1014 года

Что-то медленно продвигается, если целую 1000 лет на это надо...

Я на полном серьезе нажал на ссылку с 1014 годом и ожидал почитать историю о том, какие проблемы были в Европе и как они страдали от разной ширины лошадей и невозможности договориться о едином размере стойла и каковы бюрократические процессы мешают этому вот уже 1000 лет.
А это всего лишь опечатка, эх.
UFO just landed and posted this here
UFO just landed and posted this here

Тем, что в тот момент уже был USB, который работал.


Apple с Сони 10 лет не могли поступить как мужчины и закончить никому не нужную войну форматов.

UFO just landed and posted this here
возможность устройства быть как хостом, так и ведомым

А можете раскрыть мысль подробнее? USB otg host в смартфонах появились задолго до Type-C; понятное дело, что их всё ещё можно было подключать к ББ как внешнее устройство.
UFO just landed and posted this here
Знаете, у меня было несколько коммуникаторов на Windows Mobile (до 2010), но я что-то не припомню, была ли в них такая возможность или нет, подключать клавиатуры/мыши/флешки, или нет (в случае, если в девайсе было что-то вроде mini-USB или micro-USB).
P.S.: нашёл, можно было (не ко всем моделям), но большинство имели usb-хабы и могло-таки работать в этом режиме.
У моего последнего устройства (Samsung WiTu/Omnia i900) был проприетарный разъём, там точно можно было.

Хост — это отдельный USB интерфейс и именно в этом и было преимущество USB перед FireWire: если хост не нужен, то его и не ставили. В FireWire все фичи были добровольно-принудителными, поэтому в лучшем случае жрали дополнительную энергию и увеличивали стоимость.


КПК с USB хостом появились уже в конце их эры и требовали переходников со своих проприетарных разъемов.


Совершенно другая проблема хостов в том, сама эта возможность не дает почти ничего: вся суть в поддержке со стороны ОС и наличии достаточного питания. Обычно они ограничивались мышками и клавиатурами.

Так и в Typo-C все те же проблемы — нужна поддержка, нужно питание.
Возможно, что хост теперь там стоит в обязательном порядке (и это плюс, которому всё еще нужны пункты 1 и 2), но если нет, то я тогда решительно не понимаю, о чём говорит sumanai
UFO just landed and posted this here
Я смотрю на свой компьютер, и понимаю, что мне нужны «дополнительные» разъемы (на самом деле — нет), ну или провода (бывает, раз в год, видео перекинуть с телефона). На ноутбуке — тоже самое. На втором ноутбуке (кстати, современном и довольно дорогом), аналогично.
Удобство разъема еще ни о чём не говорит (но он, пожалуй, всё же удобнее microUSB), особенно, учитывая, что у нас теперь есть зоопарк всяких Gen'ов, PD, QC/-2/-3/-4, Thunderbolt'ов и прочих расширений и спецификаций, применимых как к устройствам, так конкретным разъёмам на этих устройствах, так и кабелям. Которые, казалось бы, должны быть универсальными (но нет. Какая ирония — Universal Serial Bus cable ни разу не универсален в нашу эпоху).
UFO just landed and posted this here
Всяким мышкам не нужны все эти гены, доставки поверов и прочие Thunderbolt.

можно будет делать любые разумные комбинации

противоречит друг другу. Мышкам, может быть и не нужны, а хостовым устройствам нужны. А еще мониторам нужны, чтобы они картинку показывали. В результате, если кабель обладает лишней «полезной» нагрузкой, и он вставлен одним концом в мышку (предположим, что там есть разъем), а другим в современный макбук, то он просто не задействует части возможностей. А если дешевый кабель, который выглядит как USB cable, пахнет USB cable, и продаётся как USB cable, но не передаёт видео, будучи вставленным в монитор и в макбук другим концом, то это проблема.

Что касамео флешек — у меня были двусторонние флешки. С одной стороны microUSB, с другой USB. Тоже работало.

Вы сводите всё удобство к единообразию разъема и только лишь. Единообразие разъема — одно из условий, но не единственное.
одинаковому разъёму сейчас можно соединить любые 2 устройства, но это не всегда имеет смысл.

Кажется с этим ужасом долго и упорно боролись, а теперь опять пришли к нему же. Даже в шлейфах к флопикам разные пины заклёпывали, чтобы нельзя было соединить 2 устройства так, чтобы это не имело смысла.

Вы все правильно поняли)
Хост все еще не обязателен, Type-C это вообще только спецификация разъема, можно сделать абсолютно пассивный порт и подключить его к древнему микроконтроллеру, который умеет только USB 2.0 slave и все будет работать. Вот этим USB и хорош.


то я тогда решительно не понимаю, о чём говорит sumanai

О том, что Apple в очередной раз создали мегареволюционную, опередившую время технологию, но злые люди не поняли Великих Гениев и ставили везде отсталый медленный USB, не желая платить Apple по двадцать баксов с устройства за разъем, обязательный логотип и микросхему — интерфейс.


Если бы не злые дяди из USB-IF, то у нас сейчас бы были флешки, которые можно было бы соединять друг с другом и копировать между ними файлы! А, забыл, благодаря уникальной технологии DaisyChain можно было бы в задницу одной флешки втыкать другую и экономить порт!

Они ровесники. Просто разные отцы (Apple, Sony & прочие против Intel, Microsoft, Philips & прочие) и неправильная лицензионная политика.
При этом FireWire поддерживал такие фичи, как подключение нескольких устройств (есть в Thunderbolt) и возможность устройства быть как хостом, так и веломым (появилось с Type-C).

Какой смысл в этой демагогии, если USB был лучше изначально и поэтому и стал самым массовым стандартом подключения периферии?

FireWire был лучше и быстрее, но дороже
USB был хуже и медленнее, но сильно дешевле

А вы можете мне скинуть pdf этой статьи на FireWire — флешку? Ха-ха)


В той статье не написано главное: стандарт убила жадность Apple, которая привела к тому, что разъем, лицензия на обязательный логотип и микросхема-контроллер стоили дороже, чем 99% устройств, которые хотелось подключать.


Мертворожденный стандарт, который почти всем технически хуже USB.

UFO just landed and posted this here

Хуже сложностью, дороговизной, неприспособленностью к реальной жизни, энергопотреблением и наличием бесполезных фич, которые в реальности никогда не работали.


Взять тот же DaisyChain, на бумаге классно, а в реальности скорость выставлялась по самому медленному устройству. Подключил мышку к сканеру — он начинает сканировать в десять раз медленнее. То есть реально это было применимо к мышкам и клавиатурам, а во всех остальных устройствах нисходящего порта не было.


Жаль, что в USB не было возможности сделать клавиатуру с USB портом для мышки… а постойте-ка, в USB есть хабы, которые к тому же могли согласовывать скорости и такого бреда, как в FireWire, когда одна мышка замедляла всю ветвь дерева не было.


По сути FireWire — это коаксиал с шинной топологией, продолжение ADB, а USB — это витая пара со свитчами.

UFO just landed and posted this here
Прямо сейчас такая.

А ты точно умеешь в сарказм и чтение предложений целиком?)


Жаль, что в USB не было возможности сделать клавиатуру с USB портом для мышки… а постойте-ка, в USB есть хабы, которые к тому же могли согласовывать скорости.


Пишут, что и на USB бывает такое с некоторыми хабами.

А у FireWire это бывает всегда. Потому что выбор шинной топологии был ошибкой.

А вы можете мне скинуть pdf этой статьи на FireWire — флешку? Ха-ха)

Я скину, прысылайте флешку :D

У этого есть одна, на 20 (а может уже и 40) ГБ. Ей лет 15 уже.

Она у вас что, растёт с годами?

Это у родителей. USB/1394 mini-ide hdd case, и для него точно каджит передавал парочку винчестеров. Правда, на 80 был дохлый.

Эээ, чё? Эппл были первыми, кто массово поставил USB в свои компьютеры, а FireWire использовались для потоковой передачи данных с аудио- и видеоустройств, чего в те времена USB просто не снилось.
UFO just landed and posted this here
UFO just landed and posted this here
Где мне раздобыть этот ваш jailbreak для своего mbp 16?
UFO just landed and posted this here
UFO just landed and posted this here
большинству пользователей вообще не хочется и не нужно возиться с внутренностями, для них интерфейс с железкой — это её практичная функциональность — воспроизведение звука/видео, открытие книжек/вебстраничек, игрушки, карты/переводчик/

Это всё прекрасно. Я немного далек от сегодняшнего состояния эпл (обладаю устаревшими данными), а по сему вопрос: могу ли я как простой пользователь просто подключить iPhone по USB к рандомному ПК на Windows (без тунца) — как флешку — и закинуть туда свои книжки с флибусты и свою музыку, которую я заботливо отсортировал по папкам (а не по тегам и прочим пожеланиям тунца), и потом так же легко как на пк или Andoid её по папкам воспроизвести?

Или всё еще на работе/в гостях я должен искать ПК с тунцом (он же ведь у каждого, правда?), сортировку музыки доверять плееру, который превратил теги моих скачанных непойми откуда MP3 в крякозябры, а для доступа к файлам по папкам творить шаманства с потрохами, джейлом и сторонними файловыми менеджерами?
UFO just landed and posted this here
Простой пользователь сейчас слушает спотифай

Гугл показывает, что аудитория спотифай порядка 160 млн человек (интересно, включая меня, который зарегался, покликал, подумал "хрень какая-то, да ещё трафик жрёт постоянно" и закрыл навсегда, или не включая). А аудитория только Андроида наверное уже под три миллиарда.

Ну Spotify здесь собирательный же образ. Есть Google Music (YouTube Music вроде сейчас) с аудиторией с 15+ миллиона подписчиков, Tidal с 3 миллионами, Amazon Music с 55+ миллионами, Deezer с 16 миллионами пользователей/7 миллионами подписчиков. Наверняка есть ещё менее известные национальные в Азии и Индии, допустим.
Даже у Яндекс.Музыки и Вк музыки больше 2 миллионов платных подписчиков, а бесплатных пользователей на порядок больше. Это из того что работает на Android.
Подписчиков Apple Music больше 70 миллионов.
В целом, я уже очень давно (лет 5, не меньше) не видел никого, кто реально пользуется флешкчками и качает музыку с торрентов на телефон, чтобы ее потом послушать. Стриминг сейчас стоит практически ничего (как и мобильный интернет). Ну то есть если у тебя DAC внешний и хочется флака, но жалко денег на HiFi подписку от Tidal то да, придётся морочиться. Если хватает mp3 320 kbit/s или его аналогов — любой стриминговый сервис закроет вопрос с легкостью.

Значит мы не встречались :) С флешечками, конечно, не бегаю, просто синк папки на телефоне с папкой на ноутбуке. С марта, правда, не актуально — акустика лучше на ноутбуке

акустика лучше на ноутбуке

Это точно, я бы запомнил человека, который может без вреда для психики и ушей на ноуте музыку слушать :) Оно же отвратительное примерно везде.
синк папки на телефоне с папкой на ноутбуке

А, ну у нас совершенно разные юзкейсы.
К окончанию периода, когда я локально хранил музычку, объем коллекции у меня уверенно перевалил за 100Гб (flac конечно, какой смысл хранить mp3, раз уж качаешь), а количество устройств стало больше двух. У меня достаточно разнообразный музыкальный вкус, чтобы коллекция пухла достаточно быстро и я иногда что-то рендомное из нее слушал, причем я сам себе заранее сказать даже не могу что это будет, чтобы подготовиться, то есть сильно желательно все всегда иметь с собой.
К примеру сейчас любое решение про локальный сторадж будет просто очень сложным. Куча устройств (десктоп, телефон, планшет, ресивер), плейлисты непонятно как переносить, желание послушать что-нибудь эдакое за рулем в дали от дома, просто физические проблемы с синком нескольких сотен гигабайт (ну или даже пары десятков, если заморочиться рекодингом, но это опять же время и гемор). Не, можно конечно айфон на полтерабайта купить и заливать в него (ну или другой телефон), но это надо помнить, синкать, тратить время на поиск и отслушивание новой музыки, потом качать, складывать это куда-то. Да ну нахрен, оно даже на 10% не так удобно, как со стримингом.

Ну я не меломан, да, как вы поняли, устройства только два, на древнем телефоне 128 Гб памяти, почти ничем иным, кроме mp3, не занятой. Пока вполне устраивает.


Онлайн сервисы пробовал, но всего интересного не нашёл, а своё только вк позволял закачивать

Локальный стрим сервер дома должен помочь. Используете спотифай/Deezer/whatever как радио, потом покупаете альбом и стримите у себя с локал сторэджа на мобилу. Качество + нет «Can't play this track by any reason».
Локальный стрим сервер дома должен помочь.

Ну, если не учитывать время и силы, которые нужны на то, чтобы все это админить, то:
1. Диски не бесплатные. А надо два как минимум, обидно потерять коллекцию.
2. Электричество небесплатное но ок, пусть оно живет на основном компе и представим что там есть место для дисков (так себе затея конечно, не поковырять, не сломать, но ладно).
3. Интернет без static IP и ассиметрик (другого для физиков не продают), оно конечно в целом будет и на 60 мегабитах шевелиться (если какой синк не запустится и не выжрет исходящий канал), но учитывая дабл-нат есть шанс огрести проблем.
4. Внезапно хороший софт для домашнего стрим-сервера тоже стоит денег. По крайней мере стоил, когда я последний раз этим всем интересовался.
Используете спотифай/Deezer/whatever как радио

Радио с поганым качеством, кстати. На бесплатных тарифах там и качество 128 или ниже, и реклама еще. А если с нормальным — все равно платить, смысл тогда всей затеи?
нет «Can't play this track by any reason».

Я такого почти никогда не встречал за пределами СНГ, то есть оно по сути проблемой не является.
Это решение, когда стриминговые сервисы не могут в то, что вам нужно. Например В спотифай нет всех выпусков A state of trance Armшт van Buuren'а. Да и к тому же, некоторые стриминговые сервисы любят в эксклюзивы (Tidal). Т.е. нужно сразу за несколько платить.
UFO just landed and posted this here
Так и на андроид есть куча софта, который умеет в SMB и локальную файловую систему. Плюс флешка через переходник цепляется и работает в стандартном (или что там производители телефонов ставят) файловом менеджере.
UFO just landed and posted this here
К примеру сейчас любое решение про локальный сторадж будет просто очень сложным.
нууу… 2Tb музыки, по inotofy конвертится в opus для смартфона, сконверченное забирается по wifi время от времени руками на смартфон. С появлением bluetooth наушников надобности иметь музыку на других мобильных устройствах больше нет, на планшете фильмы закачаны в дорогу, на телефоне — музыка, а наушники подключены и туда и туда. По новой музыке — мне её сейчас сильно меньше надо, времени в год на это уходит немного, зато я делаю это вдумчиво, и обычно открываю для себя новых исполнителей, слушаю всю дискографию, оцениваю… а сервисы обычно предлагают конкретные треки. Так-то на yutube посмотрел один клип — и он тебе тут же похожие покажет, начать искать новое можно быстро отсюда.
YouTube Music

Эта зараза то убивает песни, долго собираемые в плейлист, то "не доступно в вашем регионе", то плейлист становится на паузу, потому что "18+, я понимаю и хочу продолжить", то рандомно вылетает с плейлиста на какую-то ей возомнившуюся хрень, то подсовывает полные альбомы одним файлом без деления на главы даже, то часовые миксы…


Единственное, что сделали хорошо — это возможность переключения видео/звук.
И то, по дефолту оно в видео…


ВК и яндекс урезали возможности прослушивания незарегистрированым.


В общем, с локальной коллекцией все это конкурирует как-то ну очень слабо. Разве что как вынужденная замена радио.


Другое дело, что многих устраивает просто чтобы что-то как-то звучало.
Но это не те люди, которые будут что-то качать =)

Эта зараза то убивает песни, долго собираемые в плейлист, то «не доступно в вашем регионе», то плейлист становится на паузу, потому что «18+, я понимаю и хочу продолжить», то рандомно вылетает с плейлиста на какую-то ей возомнившуюся хрень, то подсовывает полные альбомы одним файлом без деления на главы даже, то часовые миксы…

Вполне возможно. Последние 4 года сижу на семейном Deezer, после переезда в европу купил еще Spotify себе лично, алгоритмы там больше нравятся. Жена вот дизером пользуется. До этого да, был и apple music, и google music. У эпла алгоритмы говно, у гугла тоже говно, но не такое фатальное.
ВК и яндекс урезали возможности прослушивания незарегистрированым.

Яндекс.музыка работает пока не пересечёшь границу.
Ну Spotify здесь собирательный же образ. Есть Google Music (YouTube Music вроде сейчас) с аудиторией с 15+ миллиона подписчиков, Tidal с 3 миллионами, Amazon Music с 55+ миллионами, Deezer с 16 миллионами пользователей

Захожу я на всё перечисленное, пытаюсь найти треки вокалоидов, которые слушаю — а их нет. И заботливо рипнутых с ютуба каверов тоже нет. И еще много чего нет из того, что заботливо качалось на винт годами (оно потому и качалось). Есть в основном лишь популярное и мейнстримное.

Есть конечно ВК, в который я и другие пользователи заливают подобное, но он периодически хочет, чтобы мейл.ру заплатили донатной монетой (даже в кастомных клиентах).

А еще мир не ограничивается США с гигабинтым интернетом — в моей прекрасное стране хватает мест с нулевым сигналом мобильной сети — даже смс не всегда отправляются. Какие уж тут стриминговые сервисы. А вот с флешки нормально играет.

Юзкейс «подключить смартфон к компу чтобы что-то скинуть и потом там открыть» — не такой уж редкий среди простых пользователей. И когда для этого надо отдельный софт чисто под скидывание, а потом еще шаманство для открытия — это уже не то, «что можно не задумываясь делать».
А еще мир не ограничивается США с гигабинтым интернетом

Вы не очень правильно себе США представляете. Там на самом мест, где нифига нормально не ловит и интернет через DSL больше, чем во всем СНГ вместе взятом. И безлимиты (даже кабельные домашние, про мобильный интернет я вообще молчу) далеко не везде и не всегда доступны. По средней скорости доступа и финансовой доступности (а так же вообще по доступности безлимитов, в том числе мобильных) страны экс-СССР на лидирующих местах в мире. Хотя даже в той же Польше, где я живу, есть только один оператор, который предоставляет один (!) тариф для бизнеса, который еще хрен найдешь, в котором есть мобильный безлимит, который вроде как дейсвительно безлимит и физику его купить анрил. А самый жирный абонимент, который предлагается за 1.5 тысячи рублей предполагает 75 Гб на симку в месяц на нормальной скорости, дальше шейпер и мегабит. Ну или можно за 400 рублей купить услугу безлимита для медиасервисов и социалочек, туда весь стриминг входит.
Тем не менее, даже этого вполне хватает совершенно без проблем весь месяц слушать музыку по несколько часов не страдая от недостатка трафика.
Захожу я на всё перечисленное, пытаюсь найти треки вокалоидов, которые слушаю — а их нет. И заботливо рипнутых с ютуба каверов тоже нет.

Да, вот это правда, с народным творчеством там туговато и если хочется именно его, то вариант со стримингом действительно не вариант.
По средней скорости доступа и финансовой доступности (а так же вообще по доступности безлимитов, в том числе мобильных) страны экс-СССР на лидирующих местах в мире.

Есть мнение, что это следствие лидирующих с конца мест СССР в мире по телефонизации и кабелетелевизации.

UFO just landed and posted this here
Вы не очень правильно себе США представляете. Там на самом мест, где нифига нормально не ловит и интернет через DSL больше, чем во всем СНГ вместе взятом.

Если всё реально так, то на фоне этого меня еще больше поражает тот факт, что все инсталляторы (особенно проф.софта вроде той же Visual Studio) от американских компаний превращаются по сути в лаунчеры-загрузчики, без дистрибутивов для оффлайн-установки… На кого они рассчитаны?)
UFO just landed and posted this here
на нормальной работе софт ставят специально обученные эникеи из msi
UFO just landed and posted this here
Вы таки будете смеяться, но я работал в конторе, где Visual Studio и прочий офис ставился через AD. Была дадена отдельная учётка с правами локального админа на всякий случай, но основной софт, тем более он подписной, ставился так.
На самом деле это даже удобно, можно сесть за любой комп да хоть в бухгалтерии и буквально через сколько-то минут работать.
UPD: да, прямо в коридорах возле кухни и курилки стояли компы, народ постоянно что-то друг другу показывал.
UFO just landed and posted this here
Вот насчёт тензорфлоу очень плохой пример, как мне кажется. В смысле, корпоративные политики и стандартизация версий среди всех разработчиков тут более чем уместны.
UFO just landed and posted this here
UFO just landed and posted this here
…YouTube Music…
…с ютуба каверов тоже нет.
Погодите, на YouTube Music нет музыки с YouTube?
Зачастую — да.
Причем регулярно я вижу не только, что там нет каверов, что там и оригиналов, выложенных на Ютубе нет. Точнее они есть, показываются в разделе видеороликов, но воспроизводить их нельзя. Вот так вот.
UFO just landed and posted this here
могу ли я как простой пользователь просто подключить iPhone по USB к рандомному ПК на Windows (без тунца) — как флешку — и закинуть туда свои книжки с флибусты и свою музыку, которую я заботливо отсортировал по папкам (а не по тегам и прочим пожеланиям тунца), и потом так же легко как на пк или Andoid её по папкам воспроизвести?

Нет, потому что простой пользователь айфона это не делает. У него подписка на Apple Music или че-то еще, и там «просто уже есть» вся музыка, что этому простому пользователю нужна. А если чего нет — подписка меняется на аналогичную по цене в другом сервисе. В следующем айфоне, по слухам, вообще не будет разъемов, зарядка бесконтактная будет, кабель для передачи данных уже давно никто не подключает. Скачивание — это уже удел гиков, простые пользователи смотрят и слушают прямо с интернета по подписке.
UFO just landed and posted this here
UFO just landed and posted this here
всех остальных
пользователей Ябока, не всех остальных.
UFO just landed and posted this here
Быстрая софтовая смерть. 5-7 лет в зависимости от модели и Apple перестает обновлять ОС для вполне живого ноутбука.

Посмотрел описание последней(вышла пару недель назад) операционки, поддерживает ноутбуки 2013 года и новее. Получается 7-8 лет минимум.
Все последние макбуки уже много лет хуже работают под Windows и Linux из-за отсутствия профилей питания для процессора, от чего он перегревается, работает медленее и меньше по времени (от батареи).

странно. а где же великая х86 переносимость? Винда работает нативно, а профилей нет.

Помню как раньше Apple продвигали свои отвратительные интерфейсы (FireWire, Apple Display Connector и прочая дичь) и везде их ждала неудача.
чё-то вы забыли про USB
странно. а где же великая х86 переносимость? Винда работает нативно, а профилей нет.

Питанием управляет другая микросхема, драйвера и профили для которой Apple не предоставляет. Сделано это, конечно же, специально, чтобы макбуки работали нормально только с MacOS.


чё-то вы забыли про USB

USB продвигает USB-IF с Intel во главе

Питанием управляет другая микросхема,
какая? разве это не через мосты идет?

Сделано это, конечно же, специально, чтобы макбуки работали нормально только с MacOS.
может быть потому что у винды нет режимов которые есть в macOS, например, powernap?

USB продвигает USB-IF с Intel во главе

ниже указали, что Apple Inc.'s iMac was the first mainstream product with USB and the iMac's success popularized USB itself.
UFO just landed and posted this here
s0 — полная работа
s1 — Video Backlight Off / HDD Off
s2, s3 — cpu off

вопрос — когда приходит письмо и его надо сохранить на диск. что делать? полностью будить комп и переводить в s1?
UFO just landed and posted this here
Что такое Power Nap на Mac?
Функция Power Nap, доступная на компьютерах Mac с флэш-памятью, позволяет некоторым компьютерам Mac автоматически обновлять информацию даже в режиме сна. Когда Mac переходит в режим сна, периодически активируется режим Power Nap для обновления информации. Обновляемая информация зависит от того, работает ли Mac от аккумулятора (ноутбук Mac) или подключен к адаптеру питания (ноутбук Mac или настольный компьютер Mac).
Когда компьютер Mac работает от аккумулятора и находится в режиме сна, Power Nap выполняет следующее.
Проверяет наличие новых сообщений в Почте
Обновляет события в Календаре
Обновляет другие события iCloud
Когда Mac подключен к адаптеру питания, Power Nap может также выполнять такие задачи, как загрузка обновлений программного обеспечения и создание резервных копий Time Machine.
Ага, периодический выход по таймеру из G1(какой-то из S1-S5) в G0(S0), если в терминах ACPI.
вопрос — когда приходит письмо и его надо сохранить на диск. что делать? полностью будить комп и переводить в s1?
Mac конечно так и делает, сюрприз, переводит в S0.
У вас S1 не то, у монитора свои отдельные состояния.
> Mac конечно так и делает, сюрприз, переводит в S0.

это как-то подтверждается кодом?

благодаря Gordon01 посмотрел схемотехнику материнок эппла, и там свой powerchip. поэтому, может там и просто АСПИ, а может и свой Бонжур который чуть да лучше чем стандартная вещь.
UFO just landed and posted this here
вряд ли, но я встречал на винтел пробуждения только по ethernet. по таймеру что-то не припомню.
По таймеру на винтеле там штатно с момента появления ACPI возможно пробуждение. Ну и десятка со своими пробуждениями тоже некоторых достала.
загуглил. powernap(2012) это фича которую слямзили из windows 8 под названием connecten standby(2011).

на маках проблем не доставляет :)
Эта штука
в Планировщике Задач обычно работает.
Ещё «круто», когда эта штука срабатывает для ноута с закрытой крышкой в рюкзаке.
загуглил. powernap(2012) это фича которую слямзили из windows 8 под названием connected standby(2011). вроде из acpi, но пришлось напильником пройтись
какая? разве это не через мосты идет?

Давайте вы покажите инструкцию х86, которая занимается этим, чтобы не быть голословным.


может быть потому что у винды нет режимов которые есть в macOS, например, powernap?

Вы не понимаете о чем говорите.


ниже указали, что Apple Inc.'s iMac was the first mainstream product with USB and the iMac's success popularized USB itself.

Ага, с долей рынка менее 1% (на конец девяностых).

> Давайте вы покажите инструкцию х86, которая занимается этим, чтобы не быть голословным.

а что этим занимается? если отдельная железяка, то зачем участие ОС и драйвера?

> Ага, с долей рынка менее 1% (на конец девяностых).

а рынок в США?
4. Неправда, Apple до конца тянет свои ноутбуки. Мой старый 2013 года спокойно обновляется и даже не тормозит в повседневных нуждах. Новый взял исключительно из-за оперативной памяти (да, с возможностью апгрейда у них ужас).

Про телефоны я вообще молчу — тянет до последнего, пока совсем не отомрут.

По всем остальным пунктам полностью согласен.
Мой старый 2013 года спокойно обновляется и даже не тормозит в повседневных нуждах

А вот аймак 2013 навсегда останется на каталине. /s

Идеальная ситуация, сейчас в вычислительной технике стагнация.
Большинство фирм начинают что то делать только в случае реальной угрозы своему существованию (удачно или нет это отдельный разговор).
Сейчас у интела нет другого пути, измениться или умереть.
Денег у них много и могут замутить очень суровые проекты.

Я как исследователь, обращаюсь в компании — создал новые вещи, внедряйте.
В спокойные времена получаю один ответ: Нам ничего кардинально нового ненужно, нам и на наших традиционных рынках хорошо.
Сейчас наступает мое время — готовьтесь- мало не покажется ))))

Как бы напомню в чём был успех платформы PC и почему Apple в своё время практически загнулась. PC — открытая модульная концепция. Открытые стандарты, по которым могут делать разные производители, тут и разнообразие, и конкуренция, и объём. Если за новыми процессорами не будут приходит публичные стандарты, по которым могут делать что-то сторонние производители, то мало что сильно распространиться.

UFO just landed and posted this here
Но только не сотне производителей матплат, видеоплат и других -плат, из которых можно собрать компьютер (или, скажем, ноутбук, если у вас есть маленький заводик).
UFO just landed and posted this here
У них нет их экосистемы. А без экосистемы изделия никому не нужны.
Apple зарабатывает на сервисах и магазине. Sony (PS), Microsoft (X-Box/WinStore/Azure/Office 35), Google (сервисы), а остальные в пролёте на этом празднике жизни. Либо уходить, либо довольствоваться низкомаржинальными продажами «готовых устройств» под чужую дудку.
UFO just landed and posted this here
а какая экосистема у производителей матплат и видеокарт?
А их нет. Они живут на высоконкурентном и относительно низкомаржинальном бизнесе, пытаются сделать свои бренды «зонтичными» (та самая экосистема, хоть и хардварная), выделяют «премиум» сегменты (ради бОльших наценок), и надеются, что на их улице перевернется грузовик с пандемией майнерами.
поэтому их можно не брать в расчет при смене парадигмы. им нужно сейчас бежать партнерится с новым Intel (Qualcomm) и AMD (Samsung\MTK), и убеждать их в выпуске «открытых» платформ.

Я думаю, и раньше, законченное устройство, куда более привлекательно выглядело, чем конструктор. Просто, есть люди, которые любят под себя затачивать. Как и специфические задачи никуда не денутся, которые требуют гибкой конфигурации системы. У Apple же, как видно по последним продуктам, противоположная концепция: уменьшение кастомизации.

UFO just landed and posted this here
Такое говорят про ПК в принципе. Всем остальным, кроме гиков и профи, достаточно дескать планшета с клавиатурой. С ужасом представляю, что однажды это может оказаться правдой. Дай бог здоровья ПК-геймингу…

Уже неоднократно за последние пару лет встречал людей, у которых возникала проблема при прошивке роутера на первом же пункте "подключитесь к роутеру по проводу". У них банально не было ни компьютера, ни ноутбука.

Или провода достаточной длины. Кабель от провайдера в прихожую заведён, десктоп на противоположном конце квартиры

UFO just landed and posted this here
несколько раз прошивал zyxel без провода. или у других не так?
Конкретно в описываемых случаях (перепрошивка Xiaomi R3G) происходила радикальная смена прошивки (т.е. не апгрейд, а полный переход на совершенно иную) через вход в загрузчик, а там без провода никак.
радикальная — это например, смена фирменной на WTP или как там они называются?
Да, смена стоковой на OpenWrt, Padavan, KeeneticOS. Первые две можно прошить и из стоковой прошивки, но через загрузчик намного проще. А прошивку от Keenetic, например, кроме как через загрузчик, и не поставишь.
UFO just landed and posted this here
Дык, в среде линукса очень моден «вендекапец», который вооооот-вот настанет уже как лет двадцать. Теперь появился ещё «интелукапец», который настанет вот-вот.

Причем сам капец на деле ведь никому не принесет выгоды.

Ну кое-кому принесёт.
люди были счастливы просто иметь компьютер в кармане
Пока шло это «осчастливливание», долго не мог понять, причём тут iPhone, особенно имея немалый опыт пользования карманными компьютерами на платформах Newton, Psion, PocketPC и Maemo. Тут, наверное, дело не в компьютере, а в сети: интеграция с телефонным номером с использованием его для идентификации, расцвет социальных сетей и перенос хранения контента в сеть.
И конечно, связка «фотокамера+сеть», чтобы сразу свои фоточки и видосы показать всему миру. Особенно касается девушек. Вот представьте — что бы они делали с телефоном со всеми видами связи, но без камеры? Как себя показать-то? Для молодой девушки покупка телефона с камерой=выход в свет, если ты не фоткаешься и не размещаешь себя в сети, тебя как бы и нет.

Как же жили в мои молодые годы до появления айфонов и быстрого мобильного интернета?) Вроде, норм было всем… Обходились без этого

Зависит от годов, на которых пришлась ваша молодость.
Kodak Express?
Polaroid?
Farbefilm? (Nina Hagen — Du Hast den Farbfilm Vergessen 1974)
Ну так можно было в фотобудку зайти. А ещё туда можно было затащить свою вторую половинку, а далее от целомудренности и до «студия приват представляет.»
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
Справедливости ради, ко времени появления iPhone найти в продаже телефон без камеры было труднее, чем с камерой.

Идентификация по номерам сотовых, особенно обязательная, пришла всё-таки на 4-5 лет позже выхода первого iPhone. Мне кстати ещё любопытно, почему в те годы не взлетели смартфоны с кнопками. Неужели их использование было настолько неудобным по сравнению с сенсором?

Наиболее вероятно — отнимали место у экрана.
У меня был Asus P525, отличный аппарат, был им доволен :)
UFO just landed and posted this here
Не одна Интел в 2005 году не увидела будущего. Sony, HP, Casio и другие массово прекратили выпуск PDA, все писали о смерте карманных компьютеров. На фоне этого продажа Интелом своих ARM процессоров выглядела разумным шагом. Palm и Psion просто померли. Смесь PDA + сотовый под названием коммуникатор не полетела. Гора совместимого софта просто ушла в утиль. Все переписали заново и зачастую другие компании. Windows CE/PocketPC/Mobile тоже оказались на свалке истории.
Они просто были дорогими, и не особо удобными именно для звонков.
Напомню: нажимаешь кнопку поднятия — девайс тупит N секунд. Нажимаешь отбой — аналогично. Пропущенные звонки из-за зависшего радиомодуля?) Ха-ха. Опаздания на работу из-за будильников — да как здрасьте.
А так их было куча — заместо выбывших приходили новенькие — QTek (HTC), Samsung, Asus, Acer, в самом экономе были Gigabyte, еще дешевле — в России — были Rovio. Все клепали коммуникаторы в достаточном разнообразии.

А нетупящих надёжных моделей не было ни у кого из вендоров? Просто лично я пользовался только HP, за всех говорить не могу. Из явных косяков помню только два: постоянное сбитие точности калибровки экрана и смерть аккумулятора, если долго не заряжать устройство. Это буквально превращало девайс в кирпич, и иногда дале установка полностью новой съёмной батареи не спасала сразу, нужно было как минимум долго ждать, пока зарядится внутренний резервный аккумулятор.

Sony, HP, Casio — их начал пожирать Симбиан и winmobile
UFO just landed and posted this here

Причем Pentium с оговорками — параллельно с самыми первыми Pentium, Intel параллельно запускала новые модели 486 в нише более дешевых.
Pentium MMX же одно время шел параллельно первым pentium II, и занимал ту нишу в которой потом вышел Celeron

Тут Интел применила маркетологовый приём, увеличив ценность основной марки, создав менее ценную, повысив в итоге доходы и давление на соперников.
Но автор статьи таких подробностей не знает. И много ещё чего.
Вообще-то Pinebook Pro вышел задолго до анонса MacBook на чипе M1. И уже тогда можно было сказать, что сделан первый шаг к полноценному рабочему компьютеру на чипе ARM. Так что не стоит отдавать Apple первенство в этом деле, но в целом, появление достойного конкурента это хорошо, рынок подобных устройств будет развиваться.

Efika MX Smartbook выходил вообще за 10 лет до этого. И тоже можно было что-то про него сказать.
Но вот с производительностью у него не задалось, да и софт никто портировать не бросился. Как и с Pinebook.

UFO just landed and posted this here
UFO just landed and posted this here
Говорить о кончине всего Интела, только потому, что одной компании, с одним процессором удалось показать интересные результаты в одном сегменте рынка — сегменте ультрабуков, немного странно. Особенно с учетом того, что как минимум пока, эти процессоры не поддерживают сторонние видеоадаптеры, и тех же Mac Pro на них не анонсировано.

Аргумент, что
Если Apple сохранит или улучшит свои позиции по отношению к Intel и AMD, это заметят и другие компании с лицензиями на ARM

Выглядит сомнительно хотя бы потому, что Qualcomm еще весной 2019 тут писала
о своем процессоре для ноутбуков, да только тогда у них видимо не особо получилось, откуда в таком случае уверенность, что получится сейчас?
Падение Intel от короля индустрии к наблюдателю началось уже в 2005 году: несмотря на то, что у Intel имелась лицензия ARM для производства XScale, компания не захотела сосредоточиться на энергоэффективности, а предпочла диктовать дизайн клиентам, таким как Apple, рассматривая их новый iPhone, вместо того, чтобы попытаться приспособиться под них (как это сделала TSMC).


TSMC конечно не диктовала никакой дизайн.
Ибо она им не занимается.
UFO just landed and posted this here
UFO just landed and posted this here

Столько всего хоронят, то вендекапец, то php умирает, то ещё чего) А на самом деле просто Apple со своей закрытой ос и железом отказалась в силу каких-то причин от intel. Я больше чем уверен что ещё долгие годы процессоры от intel будут устанавливаться и работать во множестве устройств, от простеньких ноутбуков до серьезных машин, а появление M1 если и подвинет этот рынок, то мне кажется не так уж и сильно как говорится в статье. А если уж говорить о линуксах, то сам Линус Торвальдс высказался скептически об M1 https://m.habr.com/ru/news/t/529764/

Почему что-то должно умереть в один день?
К тому же, php вполне себе развивается, 7-ая версия хороша, 8-ая тоже показывает довольно интересные нововведения.
Однако, если посмотреть безжалостной статистике в глаза, то Python сегодня представлен 3646 вакансиями в Москве, а PHP — 1542.
Посмотрите, ради интереса, этот обзор за 1 кв 2014 года:
ekaterinburg.hh.ru/article/14828
На секундочку, там у Питона 1,5%, а у Пыхи — 8,3%.
Если представить, что доля PHP не изменилась, то за 6 лет доля Питона выросла больше, чем в 10 раз.
P.S.: не хейтер, время от времени пишу и на PHP и на Python'е, в зависимости от задач.
Пример про питон и пыху немного резанул глаз. Учитывая что мода на Data Science в поле моего зрения пришла около 2015-2016 года то я вижу новое разделение вакансий в долях как раз в появлении новой массовой ниши. А не в том что питон забрал долю рынка у пыха. Но возможно я заблуждаюсь.
Оттуда же: Python + ML (Machine Learning) — 298
Tensorflow 120
Pytorch 107
Keras 65
Да, в этом сегменте Пайтон суперпопулярный язык; но гораздо больше людей пишут бэкэнды для сайтов, прикладную автоматизацию, парсеры, ботов, инструменты для DevOps (Ansible), и так далее и тому подобное.

Вот интересно сравнение бэкендов для сайтов на python и php в динамике...

UFO just landed and posted this here
То, что туда попал навык, не относящийся к ЯПам, не обнуляет собранную статистику. И да, я это тоже видел.
UFO just landed and posted this here
UFO just landed and posted this here
Если из вакансий убрать devops и ML, то у Python цифры уже будут в разы меньше, просто он сейчас взлетел и залез в свои ниши, а так да, немного потеснил php, но это не значит что он медленно умирает. У php есть своя ниша CMS, блогов, форумов где нужно просто закинуть фалы на хостинг и оно работает, в эту нишу в обозримом будущем мало кто залезет на мой взгляд, ну плюс есть symfony, laravel которые много где применяются. PHP всего лишь потерял часть рынка, но хоронить его рано, тем более после 7 когда появилась строгая типизация и значительно ускорено время работы.

Хорошо так в 2020 году предсказывать за 2005 год. Только контекст нехило вспомнить — 2005 год — как раз осознание фейла с NetBurst и его последователями. Выход с Core 2 был о-очень удачный — десятилетие с лишним тотального доминирования.
Вообще у intel была масса фейлов. Rambus RD-RAM, Itanium, NetBurst (+Northwood, +Prescott), упустили 64-битную архитектуру (amd64), упустили многоядерность, упустили Zen, фейл с Xeon Phi, прозевали мобильную революцию, из древнего — можно вспомнить iAPX 432, не взлетел i80860. Это я только по крупным микропроцессорным фейлам прошёлся. И ничего — утирались, делали выводы, разрабатывали новые продукты.
Чего все взорвались с этим M1, который хорошо себя проявил на распаянной разогнанной памяти в однопотоке? Не, ну Apple, конечно, это не мелочь — это чувствительно, но вот прям сразу "крушение"? Крушение может быть, если Google, AWS, Azure и прочие клауды начнут уходить на ARM (пока это фантастика — скорее на EPIC). Крушение может быть, если массово недорогие и производительные ноутбуки и ПК на ARM начнут делать (не Apple, а остальные). Ну и инерция у Intel огромная, их на поле CPU AMD очень существенно кусает 3 года. И через 3 года всё ещё на серверном и ноутбучном рынке Intel очень прочно держится.

Простое освоение рекламного бюджета.
ноутбучном рынке Intel очень прочно держится.
Держится то это да, но на том же реддите буквально страдания о синкпадах на AMD, которые невозможно купить, разбирают на подлёте, а Intel берут только от безысходности или когда нужен Thunderbolt. Я такого вообще не помню, чтобы за определенной платформой так гонялись и она была в таком дефиците.
у Интела было много мертворожденных продуктов, например:
iAPX432 — процессор, ориентированный на язык АДА
i860/i960/ — RISK-процессоры
Как сказал кто-то из известных, Intel помрет вместе с последним пользователем Windows.

В этом свете хотелось бы поговорить вот в чем. Есть такое мнение, и не только у меня лично, что все попытки крупных игроков технологического бизнеса насадить пользователю какую-то идею (поиски т.н. «next big thing») и потом еще десяток-другой лет жить с этого — заведомо обречены на провал. Технологический прорыв прийдет с низу, от потребностей людей, от небольших университетских проектов, от небольших компаний и от open source сообщества (Linux большой тому пример), которые тихо, мирно и постепенно произведут революцию, а не от желаний динозавров продолжать доить своих потребителей. Кто нибудь может вспомнить, когда последний раз слышал что-либо про IBM? А что нибудь произведенное IBM давно видели своими глазами? А ведь IBM на пике своего могущества вкидывал в исследования гигатонны кэша и это не дало ровным счетом ни какого результата (кроме того факта, что 50% всех мировых патентов принадлежит IBM-у). Вот, то же самое будет и с Intel, и вероятно, с Apple как только общество «потеряет веру» в iPhone. Про Apple вообще разговор отдельный — вся их империя держится на чистой вере, не более того.

Я думаю, что понастоящему перспективными являются любые направления, делающие нас (общество) независимыми от конкретного производителя или поставщика технологий или услуг. В этом смысле я хотел бы выделить следующие идеи:

1. Linux десктоп на базе ARM, в том числе одноплатные ПК типа Raspberry Pi, BeagleBone и Pine64. Вышедшый недавно «ПК в клавиатуре» RPi 400 это шаг в нужном направлении. Жду не дождусь, когда какой нибудь SoC на базе ARM по производительности, по энергопотреблению и по цене задвинет Intel и я смогу наконец прибрести себе ноутбук с ARM равной или может быть даже большей производительности чем Core i7. И я думаю, что этот час не за горами.

2. RISC-V — открытая система команд и совместно с ним бурно развивающийся инструментарий разработки микросхем на основе open source уже сейчас делают производство микропроцессоров массово доступным для небольших коллективов, как посредством синтеза вычислительных ядер на ПЛИСах, так и прямое «выпекание» кристаллов — что раньше было доступно только крупным компания с сотнями высокооплачиваемых разработчиков. А это, в свою очередь, открывает бесконечные перспективы к творчеству и изобретению все более и более производительных и доступных по цене рядовому пользователю систем. Как вам, например, 400 ядер RISC-V в одной ПЛИС, каждое с тактовой частотой 360МГц. Вещь специфическая конечно, но каков масштаб? При этом стоимость такой системы — по цене микросхемы ПЛИС «с полки магазина». На RISC-V запускается Linux и очень не плохо себя показывает. Американский стартап SiFive выпустил одноплатку с четырех ядерным RISC-V по проиводительности близкой к ARM Cortex-A55 и продемонстрировал полноценный десктоп с Ubunto Linux на её основе с графикой и youtube-ом разумеется. Ценик на платку пока достаточно высок, так как это всего лишь «демонстрация возможностей», но в три раза ниже чем материнка с процессором Эльбрус.

В общем, я считаю, что нужно всячески поддерживать RISC-V и по возможности отказываться от всего проприетарного или затянутого на одного производителя (Apple, Wintel).

UPD: Ответ checkpoint, не знаю почему уехал мимо.


Linux десктоп на базе ARM, в том числе одноплатные ПК типа Raspberry Pi, BeagleBone и Pine64. Вышедшый недавно «ПК в клавиатуре» RPi 400 это шаг в нужном направлении. Жду не дождусь, когда какой нибудь SoC на базе ARM по производительности, по энергопотреблению и по цене задвинет Intel и я смогу наконец прибрести себе ноутбук с ARM равной или может быть даже большей производительности чем Core i7. И я думаю, что этот час не за горами.

Ну послушайте, байку про распберьки лично я слышу с выхода первой версии и что "оно уже почти заменяет компьютер", однако, как показывает практика, распберька это игрушка для гиков лежащая на полке под слоем пыли. Да, можно заставить на нем страдать своих родителей/супруга/ребенка, однако c2d 2006 года за 3000р с GF710 все еще интересней в качестве тестонабивочной машинки или как компьютер для ютуба, а с SSD там и десятка живет вполне ничего + получаем возможность апгрейда. На что-то большее распберька не способна, монтировать даже простенькое 1080р видео на ней уже мучение. Я конечно тоже хочу себе вариант в клавиатуре, но реальных кейсов для него я не вижу.


Производительность АРМа будет на уровне i7 когда в магазине будут отдельно продаваться матплаты и процы под него, а скачать дрова с сайта производителя я могу просто выбрав архитектуру ARM. Вот тогда начнется и гонка и нормальное движение.

очередная статья написанная по данным с презентации apple, что такое независимые тесты производительности все забыли?

А что там по независимым тестам производительности? М1 в них уступает процессорам Интел/АМД со схожими теплопакетами?

UFO just landed and posted this here

Статья кликбейт. Я в IT с 1997 года и постоянно слышу про интелкапец от их конкурентов. Уже все эти конкуренты давно умерли и имена их забыли, а интелкапец остался. Этот мертворождённый М1 из той же серии. Через 5 лет о нем никто и не вспомнит.

Через 5 лет о нем никто и не вспомнит.

Что-то не верится что вы в ИТ с 1997 года. Думаете Apple опять на x86 вернётся?

Ну про M1 забудут. Кто сейчас вспоминает про 8088? :)

Рановато похоронку выписывать Intel.
То что она прозевала рынок iPhone, да не приятно, но не критично. Потеряла рынок Mac, эти единицы процентов от рынка ПК, их вообще мало интересовали. Microsoft, тоже похоронила свой проект Singularity конкурент Android буквально за год или два, как тот пошел в массы — Microsoft не умерла.
А насчет технологических новаций, у Intel есть в багаже FPGA, и они их активно двигают в серверном сегменте. В этом направление тоже возможен прорыв.
Я так понял, в компании которую представляет автор, там не то что компетентных специалистов нет, для этих платформ, там даже не знают об таком направлении.
А это уже серьезная проблема для облачного провайдера, когда его предел технических мечтаний — это выкатить AMD сервера, пока они выигрывают по цене с Intel.
Могли бы предложить ARM сервера, чисто для наработки опыта, а то так техническая революция пройдет мимо, пока похоронки будете выписывать IT гигантам.
a) Apple не будет продавать свой чип сторонним компаниям
б) ARM-процесоры не от Apple не такие быстрые по тестам
в) Не все производители ARM-процессоров способны сделать такой быстрый чип
г) Майкрософт не слезет с x86 пока ARM-процессоры не такие быстрые
д) Пока Майкрософт не слезет с x86 компаниям Intel и AMD нечего бояться

Итог: Интелкапец отменяется.
д) Пока Майкрософт не слезет с x86 компаниям Intel и AMD нечего бояться

Майкрософт уже старается не быть синонимом x86. Продажи пк лет 8 падают, ноутбуки стали заменяться планшетами. Остаются серверы. Даже если они не перейдут на arm, эти деньги — остатки былой роскоши для intel и amd. Так что на майков им явно не стоит рассчитывать.
Планшет не средство ввода информации, а для подавляющего числа работ нужен ввод информации. Да и по всяким статистикам на тех-же ixbt и 3dnews пишут, что продажи планшетов падают.
Ну и продажи ПК падать могут не по причине перехода всех на смартфоны и планшеты, а по причине банального насыщения рынка.
На счёт Майкрософт — не быть синонимом x86 она может хотеть, но экосистема софта под Винду выстроена на x86 платформе. Такую систему не просто будет перевести на ARM.
Планшет не средство ввода информации, а для подавляющего числа работ нужен ввод информации.

Так в том-то и дело, что ютубчик, вк, одноклассники, инста и т.п. — для этого достаточно планшета или телефона. Компьютер уже не обязателен в каждом доме. У меня недавно спросили, где аппстор на винду? Это один из показателей, что пк (а собственно и windows) не нужен пользователям.
Планшеты можно обновлять раз в 5 лет, а то и больше для фильмов и серфинга пойдут. Раньше интерфейс винды и пк всем был привычен, поэтому майкрософт чувствовал себя королем, теперь же, если дадите юзеру хромбук или макбук, через пару дней он почувствует себя как рыба в воде, т.к. почти так же, как и в смартфоне всё. С виндой такое уже не прокатывает. Microsoft уже чуть-ли не насильно перетягивает всех на кроссплатформенный office 365 (вроде как офис и облака у них ключевой источник дохода).
На счёт Майкрософт — не быть синонимом x86 она может хотеть, но экосистема софта под Винду выстроена на x86 платформе. Такую систему не просто будет перевести на ARM.

Их экосистема медленно сдает свои позиции и становится нишевой. Если эплу удасться убедить всех в том, что ещё и final cut, photoshop со всеми продуктами на арме — это замысле самого всевышнего, то ждем всплеска устройств на Windows 10 ARM.
У меня недавно спросили, где аппстор на винду?

www.microsoft.com/ru-RU/store/apps
Микрософт повторяет за Яблоком, как и раньше было.

Их экосистема медленно сдает свои позиции и становится нишевой.

Это — сознательный выбор руководства Микрософт.
www.microsoft.com/ru-RU/store/apps
Микрософт повторяет за Яблоком, как и раньше было.

Пользователи перестали пользоваться виндой и уже применяют свой опыт работы со смартфоном на десктоп. Т.е. основная «фишка» винды (сделать её привычным окружением) утеряна. Теперь, сделав интерфейс андроида, можно всех бухгалтеров, хоть на chrome os сажать. Всё же так же, как в телефоне. Софт, благодаря, действительно, огромному рынку, подтянут. Посыл был такой.
Это — сознательный выбор руководства Микрософт.

Так только на x86 денег много не заработаешь. Всё правильно.
Так только на x86 денег много не заработаешь. Всё правильно.

Маленькая проблемка есть — называется энтерпрайз. Расскажите пожалуйста — когда к примеру Microfocus переведет свое (нет) поделие на ARM?
Энтерпрайз сидит на VDI, а на другой стороне — тонкие клиенты и те же планшеты/слабые ноуты. Т.е x64 нужен только на серверах в таком случае, конечные устройства предпочтительнее на Arm.
Расскажите пожалуйста — когда к примеру Microfocus переведет свое (нет) поделие на ARM?
Так а зачем на arm его переводить, если оно может работать через vdi?
Мда, сервер siem под vdi — это только под тяжелыми наркотиками можно выдумать, завязывайте с этим.
Не все производители ARM-процессоров способны сделать такой быстрый чип

Это в каком смысле? Не могут спроектировать или не могут по готовым "чертежам" того же Apple изготовить такой быстрый чип?

UFO just landed and posted this here

Я к тому, что в мире ARM сильно распространено разделение труда: одни процессоры проектируют, а другие производят. Собственно с эппловскими ровно то же: проектируют сами, производство на аутсорсе.

А причём тут ARM? AMD вот тоже fabless компания и ничего, прекрасно живут.

Не все производители ARM-процессоров способны сделать такой быстрый чип

Я лишь уточнял, что имеется в виду. Не все способны сделать или не все способны спроектировать.

В данном случае не спроектировав не выпустишь под своим брендом. А кто физически их штампует уже давно не имеет значение.

Угу, не могут удовлетворить спрос, чуть ли не полгода вперёд всё распродано уже.

UFO just landed and posted this here

Не им, не производителям ARM процессоров.

И? Как это относится к проблеме с "чертежами"? (Не говоря уже о том, что там гарантированно ещё патентами присыпанно).

Я уже столько раз за последние лет 20 регулярно слышал, что Microsoft/Intel/NVIDIA/любая другая крупная компания ВСЁ, что у меня реакция одна: шо, опять?

ATI — помните такую?

ATI не исчезла в небытие.
3Dfx была злонамеренно уничтожена «эффективным» менеджером.

Transmeta, Cyrix, NexGen, Centaur, SiS, S3, Diamond, Gateway, ULi, ALi, Hercules, Tseng Labs, Aureal,…
Много их полегло.
VIA сильно уменьшилась.

О, вы помните историю еще с MDA/CGA. Да, в начале пути разнообразие было куда больше.

Помню. Все же у ATI совсем другая история была, нежели у Интела. Да и комментарий я написал к тому, что для того, чтобы делать такие заявления, нужна какая-никакая серьезная аналитика, а не скам типа "%companyname1% выпустила супер-продукт, теперь-то %companyname2% точно звиздец!".
Заголовок статьи удался, браво маркетологу.
А по сути. Ждал появления эпиков с набортной памятью HBM, Интересно появятся ли?
Насчет похорон интел. Да, на данном этапе её теснят не по детски
«Довольно слабо на фоне Ryzen 7 5800X смотрятся и процессоры Intel. Даже 10-ядерный флагман Core i9-10900K уступает новому восьмиядернику с микроархитектурой Zen 3 во всех сценариях PCMark 10.»

3dnews.ru/1026573/obzor-amd-ryzen-7-5800x/page-2.html#%D0%9F%D1%80%D0%BE%D0%B8%D0%B7%D0%B2%D0%BE%D0%B4%D0%B8%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D0%BE%D1%81%D1%82%D1%8C%20%D0%B2%20%D0%BA%D0%BE%D0%BC%D0%BF%D0%BB%D0%B5%D0%BA%D1%81%D0%BD%D1%8B%D1%85%20%D1%82%D0%B5%D1%81%D1%82%D0%B0%D1%85

Как-то странно говорить про потерю монополии архитектуры Intel/x86 на рынке, про то, что AMD и Intel не приходилось беспокоиться и задумываться, что происходит на рынках альтернативных архитектур, и упомянуть только M1. И не упомянуть ещё одно интересное слово, по поводу которого AMD и Intel стоило бы занервничать ещё больше.

Graviton.

Ещё 5 лет назад Amazon купил одну израильскую компанию, разрабатывающую ARM-процессоры. Всё-таки у Амазон в их расходах на хостинг-центры немалую долю составляет закупка оборудования.

Вот в 2018-ом году на AWS Summit уже и были анонсированы первые Graviton-ы, ARM-процессоры для серверов (а ещё и Inferentia, какие-то системы именно для алгоритмов обучения).
А в 2019-ом – Graviton2. На архитектуре Arm Neoverse N1, именно ориентированном на серверы варианте Arm.

И сейчас инстансы с этими Graviton2 понемногу появляются и для платформенного использования («как виртуалки»),… но и для software-as-a-service (например, Amazon RDS – когда пользователь получает «СУБД как услугу»).

И вот тут уже стоило бы забояться ещё больше. Дорогие (но известные) ноутбуки — это одно. А массовый хостинг, в котором вместо «дебиана на интел» можно запустить «дебиан на арм» и (возможно) обнаружить, что нужную тебе производительность ты получаешь за меньшие деньги — это очень опасно. А когда ты даже не должен разбираться с особенностями архитектуры, а получаешь «одну и ту же СУБД, но на твой выбор или на интеловском процессоре или на ARM» – то переключиться с интел на арм и обратно становится совсем просто.

И это ещё вопрос, с чего на что переключаться — в списке «инстансов с оптимизированной памятью», например, инстансы на Graviton2 стоят вообще по умолчанию.

И вот тут, если вдруг окажется, что пользователям Amazon AWS Graviton2 вполне нравится – тут уже речь пойдёт о том, что Amazon перестанет закупать серверные процессоры в таком количестве. И влияние на доходы Intel будет не менее заметным.

Хорошее дополнение. Внезапно даже сервера от Хуавей на ARM вполне себе неплохими оказались. Процессор конечно проигрывает intel, но в примерно туже цену они смогли запихать вполне хорошую перефферию: сетвые карты, HBA.

Заголок слишком хайповый, хотя до развязки очень далеко и выводы делать рано. Да — интел сглупила, но при её финансах и доминируещем положении на рынке — ещё не поздно всё переиграть. Вон АМД кучу лет пасла задних, потом напряглась и вот видим уже в топе. Так что, я бы так категорично не загадывал, потому как очень глупо ожидать со стороны интел пассивного ожидания, видя присходящее. Думаю, что через 2-3 года мы увидим неслабый ответ от интел и вполне возможно как раз на мобильном рынке.

Если все верно, то пока не очень понятно за счет чего эта «магия» работает так хорошо.
Фактически Apple взяла и сваяла процессор без «legacy» и для него нужно «дорабывать напильником» софт с «обычного ARM».
Не настолько же все вокруг идиоты, что бы не использовать что-то из уже известного или комбинации из известных приемов? Полагаю, кто-то уже давно бы развил сходную производительность.
Единственное, что приходит в голову, это оптимизаиция на уровне компилятора, под конкретный процессор. И одновременная оптимизация процессора, под используемые шаблоны исполняемого кода.
Был ли где-то анализ — чем отличается скомпилированный код для M1 и «обычного ARM»? Или как исполняется на уровне команд, предсказания, попадания\промаха в кеш и т.д.?

Если этот правильно понимает, то с точки зрения системы команд — абсолютно ничем (если не считать проприетарные специализированные блоки).
Но у него 8 декодеров на входе, соответствующее количество Execution Units, ReOrdering Buffer на 600+ op's, гигантские кеши (L1/L2 тех же размеров, что и L2/L3 у Zen+) и быстрая широкая память на той же подложке. И это наверняка еще не все микроархитектурные отличия.
В общем, он сильно заточен под то, чтобы быстро получать и обрабатывать инструкции и данные в большом количестве.


А по системе команд он полностью совместим с соответствующим семейством.

Вы статью по ссылке открыли вообще? Там простыми словами пытаются донести технологические преимущества микроархитектуры CPU, разработанной Apple. Как именно у них получается выполнять на десятки процентов больше инструкций на такт в сравнении с последними x86.


А вы что находите в ответ? Кривой пересказ предисловия этой же статьи сводящийся к "Ну там сопроцессоры, нечестно."

А вы что находите в ответ? Кривой пересказ предисловия этой же статьи сводящийся к «Ну там сопроцессоры, нечестно.»

По Вашей ссылке «простынка», по этой ссылке «выжимка» на пол экрана «каким путем пошли». А «честно» или нет, я не заметил мнения. В чем проблема? Мне, например, нет сейчас времени разбираться с точность до «килобайта» в размерах кешей и количестве конвейеров. Будет время — на выходных внимательно прочитаю Вашу сслыку.

Это не выжимка, а пересказ предисловия к статье-объяснению, где дальше рассказывается, что не всё так просто.


So heterogenous computing is part of the reason but not the sole reason. The fast general purpose CPU cores on the M1, called Firestorm are genuinely fast.
UFO just landed and posted this here
Вот и ответ. Ничем принципиально M1 не отличается от других процессоров. Все то, о чем понаписано по ссылке, было изобретено еще в конце 1980-х. Просто куча железа + хороший техпроцесс + быстрая память. Идеальный вариант для ноутбуков. А теперь посмотрим, как они присобачат 32ГБ оперативки, которые от них уже видеографы всякие требуют :)
AMD серверные процессоры с ARM-овым декодером лет 10 назад стала разрабатывать — и что? Технически это вообще не проблема — тогда вопрос на засыпку: в чем же проблема? :)

Просто рисковая ставка на увеличение процессора в ширину, которое до этого почти всегда приводило к росту энергопотребления. Просто reorder buffer в 3 раза больше конкурентов и алгоритмы, способные выжать из него пользу. Просто лучше branch predictor https://twitter.com/andreif7/status/1307645405883183104


Ничего особенного, просто никто другой в индустрии такого сделать не может.

UFO just landed and posted this here

Через 5 лет и Apple не будет стоять на месте. Но да, только будущее покажет.


Меня раздражает, как некоторые люди отмахиваются от многолетней инженерной работы, которая наконец начала давать существенные плоды, комментариями типа "Ничем принципиально M1 не отличается от других процессоров. Все то, о чем понаписано по ссылке, было изобретено еще в конце 1980-х."
Современные процессоры — фантастически сложные устройства, разрабатываемые в жёстких рамках физических, алгоритмических, финансовых и просто человеческих ограничений.
И тут приходит такой "эксперт" и высказывает своё "ценное мнение", что тут просто техпроцесс получше купили и память разогнали, а так ничего особенного.

Прошу прощения, что смею высказывать свое «ценное мнение», но и увеличение процессора «в ширину» не ново под луной. Проблема в том, что в среднем в обычном general-purpose коде всего четыре-пять команд между соседними командами ветвлений/переходов. И можно параллельно декодировать хоть 100, но КПД будет как у паровоза (если только это не спецпроцессор для DSP или AI). Да, глубина reorder buffer-а меняется одной строкой в коде (да и вообще, в процессоре изменение одной строки его кода может увеличить площадь в несколько раз — так, к сведению).

Что касается того, что никто другой в индустрии такого сделать не может — это неправда. Western Digital, например, скупил у Оракла всю команду разработчиков OpenSPARC для своих новых RISC-V — я уверен, что они могли бы сделать такое. Интел мог бы, АМД мог бы, Самсунг мог бы, Квалкомм мог бы, ХайСиликон мог бы. Просто это дорого, и кроме Эппла никто не смог бы такой процессор монетизировать. Здесь уже маркетинг и экосистема важнее.

UFO just landed and posted this here

не захотели из-за высокой себестоимости

Проблема в том, что в среднем в обычном general-purpose коде всего четыре-пять команд между соседними командами ветвлений/переходов. И можно параллельно декодировать хоть 100, но КПД будет как у паровоза (если только это не спецпроцессор для DSP или AI).

Но мы видим на реальном коде, что M1 работает практически со скоростью топовых Zen 3, только потребляет 5 Вт на ядро. Так что КПД получился куда лучше, чем у любых конкурентов.


Да, глубина reorder buffer-а меняется одной строкой в коде

Ахаха. А как заполнять его, менять очерёдность команд и шедулить по исполнительным блокам та же строка кода придумает.


Western Digital, например, скупил у Оракла всю команду разработчиков OpenSPARC для своих новых RISC-V — я уверен, что они могли бы сделать такое. Интел мог бы, АМД мог бы, Самсунг мог бы, Квалкомм мог бы, ХайСиликон мог бы.

Вас послушаешь, так все "могли бы", но не сделали. Samsung пытался некоторое время назад, и свернул направление. А они на своих фабриках печатаются, и смартфонов больше Apple выпускают.


Просто это дорого, и кроме Эппла никто не смог бы такой процессор монетизировать.

Что именно дорого? Можете привести расчёты, насколько именно дороже сделать ядро шире? И почему это не оправдывает конкурентного преимущества: снижения энергопотребления в 3-4 раза?
Если бы AMD выпустил такой процессор, Intel в лаптопах просто перестали бы покупать совсем.

1. По вашей же ссылке есть комментарий: «The i7-1165G7 is within 20% on single core performance of the M1. The Ryzen 4800U is within 20% on multi-core performance. Both are sustained ~25W parts similar to the M1. If you turned x64 SMT/AVX2 off, normalized for cores (Intel/AMD 4/8 vs Apple 4+4), on-die cache (Intel/AMD 12M L2+L3 vs Apple 32MB L2+L3) and frequency (Apple 3.2 vs AMD/Intel 4.2/4.7), you'd likely get very close results on 5nm or 7nm-equivalent same process. Zen 3 2666 vs 3200 RAM alone is about a 10% difference. The M1 is 4266 RAM IIRC.»
2. Ну если у вас есть процессор, который УЖЕ умеет все это, просто для трех команд в параллель, то как вы думаете, сложно ли переделать его, чтоб он делал то же самое для восьми? Ответ: это просто. Сделать так, чтоб при этом он не стал работать медленнее и жрать сильно больше — гораздо сложнее. Верифицировать это все — еще сложнее (но не думаю, что Эппл покажет Errata на этот чип :D )
3. Подождите, причем здесь смартфоны? Мы говорим про НОУТБУЧНЫЙ проц! Не видел ни одного хипстера в кофейне с самсунговским ноутом
4. Разработка дорогая. Один американский инженер стоит им как минимум $120к в год. Думаю, они делали этот чип минимум 2-3 года. Сколько народу работало — 100 или 1000 — я не знаю, но можете прикинуть сами. Плюс новый техпроцесс, который завсегда подкидывает проблем. Если бы AMD выпустил такой процессор, на нем должен был бы работать Windows и все игрушки.
1 По вашей же ссылке есть комментарий

Этот комментарий не стоит ничего без ссылок на измерения.
i7-1165G7 бустится до 50 Вт при однопоточной нагрузке, а при ограничении потребления до 15 Вт вообще печален.
Ryzen 4800U при многопоточной нагрузке начинает обходить M1 только при 26 Вт и 12 потоках на 8 ядрах. Напомню, M1 имеет только 4 производительных ядра, и потребляет 15 Вт.


2 Ну если у вас есть процессор, который УЖЕ умеет все это, просто для трех команд в параллель, то как вы думаете, сложно ли переделать его, чтоб он делал то же самое для восьми? Ответ: это просто.

Это становится далеко не так просто, когда команды переменной длины (врождённый недостаток x86 в сравнении с ARMv8). А алгоритмы реордеринга становятся экспоненциально сложнее с ростом буфера и количества исполняемых блоков, если вспомнить, что они должны отрабатывать за единицы тактов.


Сделать так, чтоб при этом он не стал работать медленнее и жрать сильно больше — гораздо сложнее.

Собственно, Apple это и сделала.


3 Подождите, причем здесь смартфоны? Мы говорим про НОУТБУЧНЫЙ проц! Не видел ни одного хипстера в кофейне с самсунговским ноутом

Apple начала делать широкую микроархитектуру на смартфонных чипах, много лет назад. M1 появился как следствие.


4 Разработка дорогая. Один американский инженер стоит им как минимум $120к в год. Думаю, они делали этот чип минимум 2-3 года. Сколько народу работало — 100 или 1000 — я не знаю, но можете прикинуть сами.

Т.е. вы намекаете, что ни у кого в мире нет такой сильной команды инженеров, как у Apple? Да, это вполне вероятно. Именно это я и имел в виду под "никто другой в индустрии такого сделать не может".


Вам осталось только ответить на ваш же вопрос:


AMD серверные процессоры с ARM-овым декодером лет 10 назад стала разрабатывать — и что? Технически это вообще не проблема — тогда вопрос на засыпку: в чем же проблема? :)
UFO just landed and posted this here
Непонятен ваш сарказм. Разумеется, равняется — чипы-то на деревьях не растут. Инженеры такие есть у всех компаний, что я перечислил, а еще у них много проектов — намного больше, чем вы думаете. Так что да, они занимаются другими задачами. Не хочу вторгаться в мир розовых пони, но я знаю, как работает эта индустрия.
UFO just landed and posted this here
Я не говорил, что это просто. Как и любая продвинутая технология, разработка процессоров выглядит для непосвященных магией. Тем не менее, фактически процессорное ядро — это просто огромный набор кубиков, которые можно по-разному состыковать. Можно выбрать кубики разного цвета и разного размера, но они все друг с другом стыкуются, как лего. И они уже все придуманы и даже описаны в статьях. Разумеется, собрать динозавра из этих кубиков сложно, но это не магия. Просто нужны люди и время и деньги на зарплату, да и на сами кубики тоже. Лично на мой взгляд, сделать быстро и хорошо работающий многоядерный процессор сложнее, чем отдельное ядро (я уж молчу про софт для него).
Вот, кстати, их ускоритель AI на том же чипе — это уже другие кубики, какие-то треугольные.
UFO just landed and posted this here

бульдозер собрали из кубиков. А вот райзен уже ковыряли более глубоко.
Для понимания подобного мне хватило курса в инсте по разработке АЛУ ("проц" без декодера и кеша, почти что Z80 :) ) плюс радиотехника (понимание схем и как оно всё работает).
Из "кубиков" собрать можно, но это часто будет больше, жирнее, тормознее, с бОльшим потреблением… А вот объединение разных функций в одной схеме даст уменьшение количества компонентов, потребления, задержек… Это если упрощённо.
Ещё аналогия — в программировании копипаста и простыня кода в main vs собственная архитектура с использованием циклов и функций — разный размер кода, производительность, поддержка… Много чего.
И ещё, что нервирует — фреймворки в вебразработке. Тоже кубики.

UFO just landed and posted this here
но и увеличение процессора «в ширину» не ново под луной.

Электромобили появились в 19 веке.

А вы попробуйте сделать frontend с шириной 8. Intel/AMD тут и рядом не стояли. IBM может такое сделать в своих 200-300W печках.
Но в ядре с потреблением 4-6W не может.
При увеличение ширины запуска сложность соединений растёт очень быстро (квадратично).

четыре-пять команд между соседними командами ветвлений/переходов

Данные «в среднем по больнице» не интересны. Основное время код проводит в циклах.

Да, глубина reorder buffer-а меняется одной строкой в коде (да и вообще, в процессоре изменение одной строки его кода может увеличить площадь в несколько раз — так, к сведению).

Вот дураки — то в Интел и AMD. Не могут 1 строчку поправить :)
А ещё и кэши не могут увеличить как у Apple. Ведь это 1 строчка в коде(с)
Как сидели в 2003 с Pentium-M, так и сейчас сидят на 32/32 (L1I/L1D) в Comet Lake.

Ничего, что размер структур напрямую влияет на энергопотребление и задержки? ARM не любит большие ROB, потому как это заметно ухудшает энергоэффективность.
Apple, в отличии от всех остальных может делать большие структуры, которые быстро работают и при этом энергоэффективны.

всю команду разработчиков OpenSPARC для своих новых RISC-V — я уверен, что они могли бы сделать такое

Не смогли бы. Sparc всегда был днищем в микроархитектурном плане. Они так и не осилили нормальный OoO. Клепать микроконтроллеры для SSD — вот эта задача по зубам.

Интел мог бы, АМД мог бы,
Так чего же не сделали?

Самсунг мог бы,
Самсунг очень пытался, вливал бабло, но не смог не по производительности догнать Apple, ни тем более по энергоэффективности. Их продукты проигрывали даже стоковым ядрам ARM.
Итог: Команду уволили. (Команду которая до этого делала энергоэффективные ядра в AMD)

Квалкомм мог бы,
Смешно. Они заказывают модифицированный по их ТЗ стоковый дизайн у ARM.
У них и разработчиков ядер уже и не осталось поди.
Команду, которая занималась (серверными) кастомными ядрами давно уволили.

ХайСиликон мог бы.
Их собственное ядро и до старых ARM-овским стоковых ядер не дотягивает.

Прежде чем фантазировать о том чтобы достать до Apple, достали бы до ARM сначала.
Кроме упомянутых выше есть Ampere(AMCC), Marvell (Cavium(Broadcom)) — имея опытные команды с многолетним опытом они так же сдались. Идею о собственных ядрах пришлось забыть, а инженеров уволить.

Есть ещё nVidia, которая тоже не снискала успехов на этом поприще.

Итог такой: Apple сейчас State of Art. Никто и близко не подобрался по производительности на такт. Ждём Nuvia.

А "ХайСиликон" разве не полным составом перешли в хуавей?

А вы попробуйте сделать frontend с шириной 8. Intel/AMD тут и рядом не стояли. IBM может такое сделать в своих 200-300W печках.
Но в ядре с потреблением 4-6W не может.
При увеличение ширины запуска сложность соединений растёт очень быстро (квадратично).

И в чем конкретно проблема сделать frontend с шириной 8? Делаем шину в L1 I-cache шире, 512 бит или 1024 бит — сколько не жалко. Добавляем декодеров, и вуаля. Ах да, компилятором анроллим все циклы, чтоб было чем загружать execution units, что увеличивает размер кода в разы и трэшит нам L1 I-cache. Бинго! Не удивительно, что у них >=192кБ L1 кэша для команд. Про IBM смешно, если б у них стояла задача сделать чип для лаптопа, то 300-ваттная печка превратилась бы в 15-ваттную путем замены одной библиотеки стандартных ячеек на другую — пара месяцев работы (работала бы медленнее, да).

При увеличение ширины запуска сложность соединений растёт очень быстро (квадратично).
Это не critical path, так что пофиг.

Данные «в среднем по больнице» не интересны. Основное время код проводит в циклах.

Это никак не отменяет того, что я сказал.

Вот дураки — то в Интел и AMD. Не могут 1 строчку поправить :) А ещё и кэши не могут увеличить как у Apple. Ведь это 1 строчка в коде(с) Как сидели в 2003 с Pentium-M, так и сейчас сидят на 32/32 (L1I/L1D) в Comet Lake.

Не не могут, а не хотят. Потому что у них есть симуляторы, которые показывают, что это неэффективно. Но есть люди, которым всегда надо больше — больше МГц, больше ядер, больше мегапикселей, больше камер,… :D

Ничего, что размер структур напрямую влияет на энергопотребление и задержки? ARM не любит большие ROB, потому как это заметно ухудшает энергоэффективность.
Apple, в отличии от всех остальных может делать большие структуры, которые быстро работают и при этом энергоэффективны.
У Эппла какая-то другая физика, или просто 5нм? :)
И в чем конкретно проблема сделать frontend с шириной 8? Делаем шину в L1 I-cache шире, 512 бит или 1024 бит — сколько не жалко. Добавляем декодеров, и вуаля.

Ахах. Всего-то нужно добавить декодеров =) «Глупые» интеловцы и AMD-шники и ARM-овцы делают uOP кэш и разметку в L1I чтобы хоть как-то расширить узкие 4-5 wide декодеры.
А больше они и не могут сделать. Без VLE это проще,
поэтому в Power-печке 6/12-wide декодер.

если б у них стояла задача сделать чип для лаптопа,

У них была такая задача, и они не справились. Вообще не смогли. Никак. Поэтому Apple прилось уходить на Intel.

300-ваттная печка превратилась бы в 15-ваттную путем замены одной библиотеки стандартных ячеек на другую

Так в чём же проблема? Почему ни Интел, ни IBM, ни AMD не может выпустить какой-нибудь 24 ядерник в 15Вт? :))))
Как же так? Без ваших ценных указаний им не справиться?
Чтобы в 20 раз уменьшить потребление, нужно использовать старый советский…

Ах да, компилятором анроллим все циклы, чтоб было чем загружать execution units,

Это делать не нужно. Вы не слышали про предсказатель ветвлений?
После всей сказочной ереси которую вы тут наговорили, я не удивлён.

Не не могут, а не хотят. Потому что у них есть симуляторы, которые показывают, что это неэффективно.

Увеличение размера кэша L1D неэффективно? *** ROFL ***
Тогда зачем они его увеличили в Sunny Cove? :))))

У Эппла какая-то другая физика, или просто 5нм? :)

У Apple топовая команда инженеров и приоритеты расставлены правильно. Qualcomm те же самые 5нм. Уже можно посмотреть насколько хвалёный X1 сливает A14 :)
browser.geekbench.com/v5/cpu/compare/5114111?baseline=5109194
Ахах. Всего-то нужно добавить декодеров =) «Глупые» интеловцы и AMD-шники и ARM-овцы делают uOP кэш и разметку в L1I чтобы хоть как-то расширить узкие 4-5 wide декодеры.
А больше они и не могут сделать. Без VLE это проще,
поэтому в Power-печке 6/12-wide декодер.

Вы снова читаете не то, что я написал, а то, что вы хотите видеть. Не знаю, что там делают интеловцы со своей убогой ISA, но почему ARM не ставит больше декодеров? Поставить больше декодеров — это самое простое, что только можно сделать в процессоре (проще только кэш увеличить). Пока подумайте, ответ ниже.
Это делать не нужно. Вы не слышали про предсказатель ветвлений?
После всей сказочной ереси которую вы тут наговорили, я не удивлён.

Слышал, могу даже вам рассказать, как они работают. Кстати, они — одна из самых сложных частей процессора (при этом одна из самых маленьких). А теперь представьте себе обычный код: три команды, потом переход, потом две команды, еще переход, еще пять команд, потом два перехода подряд, потом еще пара команд. Итого 16. Некоторые переходы условные и зависят от результатов предыдущих команд. Теперь вы за раз вытаскиваете из кэша по 8 команд и декодируете их параллельно, а потом решаете, что делать дальше. Так вот, в этих 8 командах у вас два перехода, которые могут зависеть от результатов первой и второй команды соответственно. Окей, у нас предсказатель переходов, который говорит нам, что первый переход надо выполнить. Правда, за то время, за которое срабатывает предсказатель, мы спекулятивно вычитываем и декодируем еще, например, три раза по восемь команд. То есть мы достали и декодировали 32 команды, из которых смогли использовать только четыре. Ну ок. Возможно, этим оверхедом можно пожертвовать. Правда, на мой взгляд это как раз то, что превращает процессоры в печку. Что-то в этом есть от Pentium-4 :)

У меня есть замечательная книжка Майка Джонсона — одного из авторов AMD 29050. Это первый суперскалярный RISC от AMD — 1990 год, вроде бы. И в ней уже есть графики, сравнивающие эффективность декодера на 2 и 4 команды. Даже если мы забудем все доисторические мэйнфреймы, то декодер на четыре команды в обычном процессоре был представлен больше 30 лет назад! С тех пор частоты и количество транзисторов выросли астрономически, но до сих пор тот же ARM пихает декодер на те же четыре команды в самые распоследние Cortex-A7x. Вот же тупыыыые!

Когда branch misprediction остаётся в пределах 10% на разнородной нагрузке, оверхедом действительно можно пожертвовать. Ведь в 9 раз из 10 мы не только вытащили и декодировали то, что нужно, но и спекулятивно исполнили на свободных исполнительных блоках.


Вообще на этой картинке любопытно посмотреть на IPC: на Intel 1.75 в среднем и 3 max, тогда как A12 показывает цифры около 3 в среднем, и до 5.5 на отдельных алгоритмах — это хорошо показывает, что уже он был бы ограничен в производительности (по крайней мере на каких-то отдельных нагрузках) при 4 декодерах, а M1 прилично больше производительности на частоту выдаёт.


Правда, на мой взгляд это как раз то, что превращает процессоры в печку. Что-то в этом есть от Pentium-4 :)

Мы же обсуждаем существующий процессор, который можно купить в реальном устройстве. Он никак не похож на печку.

Здесь есть нюанс. Чтобы сделать частоту процессора быстрее, вы жертвуете эффективностью. Например, вы добавляете больше стадий в конвейер, что влияет на латентность команд и увеличивает оверхед при неправильно предсказанных переходах, увеличивает энергопотребление, и т.д. Посмотрим на два гипотетических процессора, сделанных по одному техпроцессу. Один из них разработан, чтоб работать на частоте 1ГГц, а другой — 2ГГц. У них будут разные архитектурные решения, чтоб этого добиться. Теперь, если вы возьмете второй и запустите на 1ГГц, вы увидите, что он менее эффективен (по тем же IPC) и больше жрет, чем первый. Если для вашего приложения 1ГГц достаточен, или у вас ограничение по энергопотреблению, то лучше выбрать первый. Но это не значит, что архитектура первого лучше, просто она другая.
Но это не значит, что архитектура первого лучше, просто она другая.

Если она показывает ту же производительность (благодаря большему IPC) при меньшем энергопотреблении (~частоте), то я считаю, что она объективно лучше, при прочих равных.

В этом плане я считаю, что миру наконец повезло, что нашлась компания, которая не считает деньги для того, чтоб отомстить x86 за i860 и i960 :D
UFO just landed and posted this here
Нет. Архитектор из 1980-х упал бы в обморок от количества EDA-софта, упрощающего разработку, и от скорости работы библиотек стандартных ячеек, но не от сложности процессора. Конечно, это сложный процессор. Но не сложнее интеловских, не уверен, что сильно сложнее какого-нибудь OpenSPARC или Power. Не прорыв. Не «The Next Big Thing».
UFO just landed and posted this here

была пара статей, что хуже, чем на компах 80ых.

не уверен, что сильно сложнее какого-нибудь OpenSPARC или Power.

Ахах. Там пропасть по сложности. В Power традиционно слабый OoO движок, а OpenSPARC (T1/T2) это вообще простейший in-order процессор.

Почитали бы на досуге OpenSPARC T1 Micro Architecture Specification
www.oracle.com/servers/technologies/opensparc-t1-page.html

Не прорыв. Не «The Next Big Thing».

Ну как скажете :) Просто первый ARM опережающий топы х86 по абсолютной производительности потребляя 1/4 энергии. Сущие пустяки.

Хотя отчасти я согласен — настоящим прорывом был Apple A7. 7 лет шла упорная инженерная работа по выведению его на #1 по производительности.
UFO just landed and posted this here
Скажите, пожалуйста, что показывает UX тест антуту?
Внезапно, но Хабр учёл мои интересы и показал статью про что-то подобное, где точно также обсуждают ноутбук с ARM'ом и грядущий Intel'окапец.
habr.com/ru/post/67673/#comment_13517655
2009 год, на минуточку.
Вы реально не видите разницы между ОЕМ поделкой на Cortex-A8 которую сделали в 10 экземплярах и десятках миллионов ноутов с топовыми характеристиками и глобальной софтверной поддержкой?
Разницу вижу. А также я вижу то, что Apple может продасть что угодно, независимо от потребительских характеристик и глобальной софтовой поддержки (нет, свои приложения они перенесут, а вот дальше — это вопрос всё еще открытый). Прямо эффект зачарования. Тут про геймеров в писали — ну так сколько игр там портировано на MacOS? А сколько из них будет портировано для MacOS on ARM?
«Топовость» тоже, так скажем, дискуссионный вопрос. 8ГБ памяти — у меня в нетбуке из '14 за 15 тысяч рублей столько же памяти. Ну, и по процессору — Cortex-A8, для своего времени, был актуальным решением. Этот чип — тоже актуальное решение, лучше конкурентов, но я видел первые двухядерные решения — скажем, лэптопы на nVidia Tegra 2 — и несмотря на превосходство прямых конкурентов со старыми одноядерными ARM'ами — их распространенность была не очень большой. Хотя Toshiba с nVidia Tegra 2 я даже в руках держал. Неплохая машинка, лёгкая, но не без особенностей.
Потом много что было, и даже сейчас можно купить без особого труда Chromebook на ARM чипе.
Эти существующие устройства заняли какую-то нишу; эти нетбуки и ноутбуки за много-много денег от Apple тоже займут определенную нишу (в их миллионных тиражах я не сомневаюсь), а будет ли вышеупомянутый x86-капец — это вопрос.
Тут про геймеров в писали — ну так сколько игр там портировано на MacOS?

Вообще не волнует.
Меньше игр — меньше конкурентов :)

А сколько из них будет портировано для MacOS on ARM?

В х86 игры на macOS можно спокойно играть на M1 и даже лучше чем в нативе.
Спасибо Интел за днищенские видеокарты.

8ГБ памяти — у меня в нетбуке из '14 за 15 тысяч рублей столько же памяти.

Вопрос в том, можете ли вы редактировать несколько 4К потоков в реалтайме на своём нетбуке или нет. Сможете собрать ядро линукса в виртуалке за пару минут?

Cortex-A8, для своего времени, был актуальным решением.

Для компа? Разумеется не был. Подсказать что было актуальным?
Nehalem 4 ядра 8 потоков 3ГГц. Между ними 50x разница по скорости.

лэптопы на nVidia Tegra 2… их распространенность была не очень большой.

AC100? На Андроиде. Без магазина. Без софта. Без апдейтов. Cortex-A9 без NEON.
КОМУ он был нужен вообще и для чего?
У меня такой есть с Линуксом. Разумеется линукс там работает через жопу из-за архикостыльного железа. За все годы его так и не смогли заставить работать нормально.

Chromebook на ARM чипе

Нишевое устройство для интернета на слабых ARM-ах, которые никакую конкуренцию х86 не оказывают.
В х86 игры на macOS можно спокойно играть на M1 и даже лучше чем в нативе.

Хорошо, что у маководов с этим легче, чем у Linux c WINE/Proton.
Вопрос в том, можете ли вы редактировать несколько 4К потоков в реалтайме на своём нетбуке или нет. Сможете собрать ядро линукса в виртуалке за пару минут?

Не редактирую видео, но, думаю, нет. Ядра не собираю, но то, что я компилирую, компилируется достаточно быстро — мои игры собираются за секунды, числадробилки — за доли секунды. Чего не хватает — так это то, что устройство в 2,5 раза быстрее моего первого нетбука (который, к слову, тянул студию или несколько окон Линяги или Вовки), не может параллельно держать видеозвонок в Дискорде и, скажем, скроллить карту. Подвисает :)
Но это вопрос к современному Electron-софту и JS-разработчикам.
Для компа? Разумеется не был. Подсказать что было актуальным?
Nehalem 4 ядра 8 потоков 3ГГц. Между ними 50x разница по скорости.

Мы всё ещё говорим об устройствах весом меньше 1300 грамм и с жизнью батарейки от 6 и более часов? Указанные вами процы, хоть и были анонсированы раньше, вышли позже этого _устройства_, и их никогда не вставляли в нетбуки и ультрабуки. А вставляли Intel Celeron M, Intel Atom'ы, и вот АРМы в качестве Proof-of-Concept. Потому что, если мы уберем любые разумные ограничения (накладываемые на указанный форм-фактор, вес, и время жизни), и оставим топовые решения, то топовые решения и сегодня легко обойдут M1.
Говоря об актуальном решении я сравнивал сравнимое с сравнимым — ARMы. И тут, спору нет, кастомное решение от Яблок лучше всего остального на сегодня.
AC100? На Андроиде. Без магазина. Без софта. Без апдейтов. Cortex-A9 без NEON.
КОМУ он был нужен вообще и для чего?

Как я и сказал, не без особенностей.
Впрочем, как и вот эти нетбуки с M1.
Нишевое устройство для интернета на слабых ARM-ах, которые никакую конкуренцию х86 не оказывают.

Их собирают сотнями тысяч (если не миллионами) штук и раздают школьникам в Америках и Европах.
Тоже самое могу сказать про обозначенные в теме устройства: нишевые устройство для посиделок в кафе, которые никакую конкуренцию х86 не оказывают /s
В х86 игры на macOS можно спокойно играть на M1 и даже лучше чем в нативе.
Хорошо, что у маководов с этим легче, чем у Linux c WINE/Proton.

Как я понимаю, это разные вещи. Речь идет о том, чтобы на MacOS ARM запустить приложение под MacOS x86-64. Wine/Proton — это чтобы запустить на Linux x86-64 приложение под Windows x86-64. Для запуска приложений под Linux ARM на Linux x86-64 красивых трансляторов вроде Rosetta нет (могу ошибаться), и обычно используют qemu.

Но дело в том, что под линем в основном вращается опенсоурсный софт, который уже давно компилируется под армы, банально на медленных малинках вполне запускается и работает много чего (m1 быстрее процев в 4-ых малинках в 10 раз). Корпоративный софт часто на джаве, там вообще пофиг какой проц, главное джава машину под него иметь.
Ну не за много-много денег, такой же категории ультрабуки так же стоят.
Ультрабук HUAWEI MateBook 13 HN-W19R, 13" 2160*1440/4С/8Т/16/512 за 60 тысяч рублей с вами не согласен.
То есть, да, цены одного порядка (в отличие от цен нетбуков, но у них стрёмные экраны и слабые процы), но разницу в 1,5 раза найти достаточно легко.

Да он же медленней в 3 раза. Да и других компромиссов хватает.


HUAWEI NBLK-WAX9X AMD Ryzen 5 3500U 2100 MHz (4 cores) Single-Core Score 565 Multi-Core Score 2486


MacBook Pro (13-inch Late 2020) Apple M1 3189 MHz (8 cores) Single-Core Score 1724 Multi-Core Score 7535


Поэтому напрямую приводить как аналог не верно.

Да он же медленней в 3 раза. Да и других компромиссов хватает.

Зато он может запустить базу данных на Oracle 19с, в отличие от :)
Версия на 16ГБ стоит 149 т.р. В 2,5 раза дороже. Справедливо. В 3 три раза быстрее — в 2,5 раза дороже.

Ну так у макбуков на новом M1 и память быстрее и диск.

UFO just landed and posted this here
Не известно протянут ли 20 лет, если не изменят конечно свою политику, как МС в свое время и не приспособятся к окружающему миру. Под виндой возможно тоже бум сейчас в ближайшие лет 5 будет армов. Рынок ультрабуков вероятно в сторону эпл сильно перекосится за год-два. АМД вполне возможно может в ближайшие времена преметнуться на АРМ архитектуру. В общем в ближайшее время будет весело и интересно.

Я не верю в крушение Intel, да и в целом x86. M1 вообще не конкурент. ARM чипы уже десяток лет со всех сторон наступают, но как только ты с ними пработаешь — сразу понятно, что старый добрый x86 ПОКА лучше в 90% случаев, кроме мобильный телефонов, приставок и т.д.


Что касается Apple, мне интересна больше всего интеграция приложений с iPhone на Macbook. Если это будет сделано в удобоваримом варианте, то лично для меня это будет киллер-фича. Можно долго разговаривать о том, что 8 GB памяти на ноутбуке это мало. Но, меня просто бомбит от всякого навоза типа Slack, Skype и прочих выродков. Именно они жрут память гигабайтами на десктопе. При этом на iPhone они вполне нормально работают. Мне даже пришлось сходить в википедию, чтобы узнать сколько RAM на 7-м iPhone — 2 GB.


Хорошая интеграция приложений между Mac и iOS сходу обеспечит большинство пользователей Apple всем необхоимым. Но да, любители доккера будут страдать.

Скорее всего не долго будут страдать.
Да и в чем могли страдать, если их фактически не было на ноутбучном и десктопном рынке. Либо что-то специфичное очень. Просто АРМ дозрел до ПК.

Так в том-то и дело, что АРМов не было и любители докера (я в контексте веб-разработки, если что) запускали на маках обычные amd64 образа для Линукса в обычной виртуалке почти без проседания производительности (монтирование в контейнеры локальной ФС замнём для ясности). А теперь непонятно, то ли на АРМ-образы переходить (а на серверах и у команды amd64, то есть нужно если не два набора докерфайлов и прочих конфигов, то параметризировать существующие), то ли уходить с маков на amd64, то ли всю компанию переводить на АРМ

Как вариант — платформонезависимые сборки. Зависимой частью остается костяк, притягиваемый из репов (скажем, nginx + lua + redis + postgres), остальное на эрланге/питоне/ноде/яве/черте_рогатом.
Гошечку придется отложить или собирать версию под арм.

Зависимыми ещё остаются сами эрланг/питон/нода/ява/черт_рогатый


Но главное нарушается принцип "везде, от локальной машины разработчика, до продакшена, запускается один и тот же образ, дающий очень близкие окружения, практически исключающие ситуации "у меня локально всё работает""

Так отладить одну языковую vm в тысячи раз проще, чем сонмище нативных программ.
И разработчики вокруг этих vm — не джуниоры.

Я про то, что образ приложения FROM черт_рогатый:1.0.0-amd64, запускаемый на сервере будет полностью отличаться от FROM черт_рогатый:1.0.0-arm64, который запускает разработчик

Это конечно.
Зато не будет отличаться тот лапшекод, который наваяли погромисты…))


Что, на взгляд каджита, гораздо важнее.

Да, не будет, но есть вероятность что поведение этих образов будет отличаться. Вплоть до кучи кода, обёрнуутого в if (platform == 'amd64') { ...} else {}

Может. Более того, должно, если вы каким-то образом задействуете SIMD, например, вызывая встроенную библиотеку для работы с массивами.
Но точно так же абсолютно такие же артефакты могут оказаться в компиляторе или трансляторе типа Rosetta — от чего бинарники под разные архитектуры будут различаться в поведении, несмотря на то, что реализуют один и тот же код.
Да тот же size(int), который немало попил крови при переходе x86 ⇒ x86_64.


Языковые vm не идеальны, и точно не являются серебряной пулей. Но этот недостаток — в принципе не их недостаток, а общее свойство любого инструментария, конвертирующего код разработчика в реальную работу на целевом железе.

Именно. И боли у разработчиков, использующих Маки для разработки Linux amd64 софта с докером, прибавится.

Да тот же size(int), который немало попил крови при переходе x86 ⇒ x86_64.

Вот вы это сказали и у меня аж волосы на спине дыбом встали от воспоминаний портирования программы из 2000 года на современную систему в 2019 году...

UFO just landed and posted this here
Нет не все векторно. Реально проц быстрее. Видел тесты в которых векторных операций нет. (бенч-тесты для сборки golang) и m1 быстрее i7-9750H заметно. Есть отдельные тесты выпадают и криптооперации сильно (для них у интеловских процев отдельные команды есть).
Вообще, еще бы сделали потом запуск макос приложений на iphone, подключение к монитору. Вообще бы рынок домашних ПК бы убило. По крайней мере сильно урезало.
UFO just landed and posted this here
Да, книга «Дилемма иноватора» очень верная и точная в плане предсказания экономических процессов.
ARM вряд ли убьёт ПК, но вот откусить нижний сегмент ноутбуков они способны, учитывая огромное количество программного обеспечение для Android.
Эх, а могли Эпл сидеть на пятой точке и продолжать стричь бабло слекга улучшая прошлогоднии продукты как это делают другие компании. Но нет же, вечно им не сидится и лезут создавать новые устройства или делать революцию в существующих. То с айфонами своими вылезли, то на планшеты половину пользователей ноутбуков пересадили, то часы всех заставили носить вновь, теперь на х86 замахнулись. А ведь уже на пороге революция в экранах (MicroLED), которую тоже эпл начал.
UFO just landed and posted this here
> HTC Touch Diamond появился ранее первого айфона

нет
UFO just landed and posted this here
The HTC Touch Diamond was first available in Hong Kong in late May 2008.

The first-generation iPhone was announced by Apple co-founder Steve Jobs on January 9, 2007. went on sale in the United States on June 29, 2007,

с остальным тоже дискутабельно :)

как софт для разраба — 1. для iOS другого и нет :) 2. для других моб платформ свои приколы.

как софт для домашнего пользования — да, он не супер, но лучшее из всего что есть.

Статья может и хороша в технических подробностях, но автор не стал давать объяснение на вопрос «почему?». А он для такой огромной, я бы даже сказал раздутой, компании виден на примере даже реагирования на выход новых процов AMD. Тупизна набранных корпоративных чиновников, которых интересует только з/п есть всегда, но в успешных компаниях она подавляется руководящим составом.

Энди Гроув был визионером и 100% паровым катком ездил по всем несогласным с новыми или рисковыми идеями. Потом сбылась мечта инвесторов и stakeholder'ов — его «ушли» и можно было перевести ползунок «доходность» в максимум: плевать что там через 10 лет какие-то проблемы рынков будут, «дивиденты здесь и сейчас» — это синица в руках.

На волне прошлого кризиса и падения доходов интересно было разглядывать отчетность крупных софтовых вендоров: управляемые частниками (создавшими компанию, а не получившими на блюдечке) оставляли финансирование R&D, акционерами — всё в дивиденты.
UFO just landed and posted this here
Вот только у двух из них матрица 1080p, а с похожей матрицей только один асер с потребление на 3Вт меньше в максималке.
Потом я посмотрел этот Эсер только вес и работу от батареи. И так он на почти треть тяжелее (1,3кг против 1) и время автономный работу у него не превышает 10 часов против 15 и на полной яркости 7,48 против 8,28 у аира (много кто сидит на полной яркости за ноутом? а от батареи? ), притом что батарея у него более емкая 54.5 Wh против 49.9 Wh у аира. Так что в вопросах веса, потребления и как следствие работы от батареи споров не должно быть, тут однозначный win у Apple Air.
PS Как и писали ранее, яблоко не сделало никакой революции, но избавилось от платежей интелу (скорей всего уменьшила себестоимость), а также имеет пару маркетинговых (дольше работает от батареи (много кому не хватит 10 часов и нужно 16 ?, я думаю таких мало)) и вполне осязаемых (вес на треть меньше и экран чуть лучше) преимуществ.
PPS Про революцию я пишу только на текущий момент, так как я не предсказатель( айфон тоже в свей время тоже не был похож на революционный телефон и даже по многим параметрам уступал конкурентам), но теперь все считают его появление революцией.
И так он на почти треть тяжелее (1,3кг против 1)
Не понял, что с чем вы сравниваете. Если что, это именно Air весит 1,272кг. А Acer, если речь про Swift 3, весит 1,163кг.
Точно я на ночь глядя перепутал.
И вообще вес айпада в фунтах принял за аир и в кг.
Бывший исполнительный директор Intel Энди Гроув
«Бывший» — отсюда вся проблема, кмк.
«Бывший» — отсюда вся проблема, кмк.
He relinquished his CEO title in May 1998

Это значит, что провал с Rambus и IA64 — его работа. Точно так же как с iAPX432 на 15 лет раньше.


Или вы думаете, что он бы смог вытащить ситуацию обратно несмотря на всё это?