Комментарии 424
Ну большинство пользователей все таки не профессионалы им зарабатывающие, а студенты, офисные служащие самые обычные
1. В богатых странах непрофессионалы и не айтишники зарабатывают достаточно, чтобы купить себе мак, если им хочется мак.
2. На США может быть приходится не очень большая доля населения, но очень большая доля рынка в денежном эквиваленте. Ну и речь не только про США, богатых стран много.
Но подавляющее большинство таки ездит на условном «гольфе» в комлектации «барабан с парктноником» и не особо задумывается о комфорте и мелких удобствах, т.к. машина — средство передвижения, а не предмет роскоши.
Аналогично и с рабочими компьютерами, ноутами и т.п.
Простите, что вмешиваюсь. Вы давно смотрели, сколько стоит новый фокус? Это как бы совсем небюджетные тачки
Это как с машинами.… А если вы зарабатываете на ней деньги, то вопрос вообще не стоит
Ага, то-то все таксисты ездят на машинах за 2М.
Для веб-разработки мак — это просто счастьеНе забывайте, пожалуйста, уточнять, какой именно вид веб-разработки имеете в виду. Потому что вот, например, мне, веб-разработчику (C#, .NET, TypeScript) из перечисленного вами не нужно ничего, а интерфейс более «человеческим» не воспринимается (там ведь всё ещё кнопка Return в одних местах открывает/запускает, а в других, типа списка файлов в Файндере, почему-то переименовывает?).
P.S. А какое вообще отношение Adobe имеет к разработке, если не секрет?
Не забывайте, пожалуйста, уточнять, какой именно вид веб-разработки имеете в виду. Потому что вот, например, мне, веб-разработчику (C#, .NET, TypeScript) из перечисленного вами не нужно ничего
Вы, судя по стеку, занимаетесь бекенд разработкой? Я тоже пишу последние 2 года одни бекенды и вполне успешно последние полгода сижу под линуксом. А товарищ выше занимается фронтендом и действительно лучше мака не придумать ничего — хотя бы проверять тот же сайт на ретина экране в сафари (не говоря уже про дебаг на айфонах), которая довольно популярна за бугром.
P.S. А какое вообще отношение Adobe имеет к разработке, если не секрет?
Самое прямое к фронтенд разработке, если заниматься вёрсткой. Вырезать ассетов себе, выдрать значения цветов да и просто глянуть на макет. Далеко не все перешли на всякие модные фигмы, а некоторые вообще сидят на скетче и без мака никак.
Главное, чтобы товарищи с 5K ретина-экраном не забывали, что в мире остались еще жалкие реликты с Full HD.
Вы, судя по стеку, занимаетесь бекенд разработкой?Нет, я full-stack. Бэк на C#, фронт на JS/TS. Неужто бэк часто смешанный бывает, на Дотнете с Нодой?
А товарищ выше занимается фронтендом и действительно лучше мака не придумать ничего — хотя бы проверять тот же сайт на ретина экране в сафари (не говоря уже про дебаг на айфонах), которая довольно популярна за бугром.А проверять для всех остальных, кто не ретина и не на маках (большинство)? Замечать проблемы макета на дефолтных win-шрифтах, непопадание в пикселы и всякие штуки вроде размытия при выравнивании по центру дивов нечётной (в пикселах) высоты через
transform-translate(-50%, -50%);
выдрать значения цветов да и просто глянуть на макет.Для этого в Adobe Xd есть экспорт в веб, вам просто скинут ссылку на макет на xd.abobe.com/view/{guid}… и вот он у вас уже в браузере, открываете инструменты разработчика и включаете встроенную в них пипетку.

Вообще В 2020 при нужде в реально производительном ноутбуке не имеет особого смысле брать устройства не на райзен 4xxx. Там какой-то совершенно сумасшедший разрыв с интелом. Очень жаль что макбуков на них не будет. Очень жаль что аппл не выкатили версию мака про на новых тредрипперах. И также очень жаль что производители не торопятся ставить эти новые процессоры в топовые модели ноутбуков. Однако постепенно втягиваются.
А тут просто обратите внимание на то, какие модели процессоров окружают этот в рейтинге производительности.
Реалистично, хоть я тут кругом и защищаю ценовую политику эппл и с ней все как бы в порядке, нет ни одной причины брать ноутбук на интеле сегодня. Ну только если без мак ос жизнь не жизнь (а она жизнь, так-то). Ну и тандерболт еще, это важно, согласен. Но он там (имхо) скоро появится + USB-C со всеми возможными режимами все еще покрывает очень много юзкейсов.
А как разработка на TypeScript мешает работе с ним под linux/macOS?
В общем, с 2015-2016 годов всё в мире .net-а сильно поменялось к лучшему и теперь можно с двойным комфортом использовать мак для разработки сайтиков.
Понятно, что если есть какой-то lock на winapi, то да, от win уйти не просто (ну, например, писать GUI на WPF/UWP/WinForms или же на старом Asp.Net что-то допиливать).
рассчитано на использование одним человеком — PC.
PC рассчитан на работу одним человеком в один момент времени (логика в том, что устройств ввода один комплект), но при этом PC легко может делиться, например, разными членами семьи на протяжении времени
В ThinkPad T60 на максималках тоже система охлаждения справлялась вот буквально на грани...
И ладно бы в ноутах не было, так даже внешнюю видеокарту от Nvidia не получится использовать, если хочешь, например, что-то на CUDA посчитать.
Да, я как раз и хочу сказать, что внешняя не поможет.
Apple and Nvidia Are Over. На страничке для загрузки CUDA только Windows и Linux.
CUDA 10.2 ещё работает на macOS, впрочем. Но надолго ли её хватит?
За примерно 1600 долларов я могу купить себе очень годный thinkpad со свеженьким ryzen 4xxx о 8 ядрах и 16 потоках, да 32 гигах оперативной памяти
А не подскажете, где это вы можете себе купить такое? Я вот в официальном магазине в Украине ничего такого не вижу.
Плюс надо же эпплу будет хотя бы в первые годы мотивировать как-то людей брать технику на арме, особенно когда в актуальной линейке еще будут модели на интеле. Я вполне себе могу представить что часть этой мотивации будет в цене.
Плюс надо же эпплу будет хотя бы в первые годы мотивировать как-то людей брать технику на арме
Особенно это важно с широким выбором устройств с MacOS на рынке от разных производителей. Прямо глаза разбегаться будут: на арме брать или на х86.
1950 евро стоит база с i5, 8гб памяти и FHD монитором. Если подтянете его до базовой прошки 16 (hidpi дисплей, i7 и 16гб), то получатся те же 2600 евро.
На линуксе не будет первого, на windows — второго, хотя имхо в наш век контейнеров и дешевых (в смысле оверхеда) виртуальных машин гнаться за вторым особого смысле нет.
При средней зарплате в EU/USA, макбуки, айпэды и айфоны стоят просто как обычные качественные устройства.
Являясь далеко не качественными устройствами.
просто у тхинкпадов, деллов и HP нет таких последователей.
внезапно, но есть. Один коллега (да и второй такой же) полностью забил квартиру тхинкпадами. Да и я долгое время на них сидел...
Я вот, имея P50, подумываю о X230T, просто потому, что концепция прикольная. Ну и семирядку можно воткнуть.
А во-вторых, ценник за яблоко сравнительно высок только в небогатых странах, и только в сравнении с дешёвыми устройствами. При средней зарплате в EU/USA, макбуки, айпэды и айфоны стоят просто как обычные качественные устройства.
Ознакомьтесь по первой ссылке в гугле со «статистикой продаж ноутбуков в США» прежде чем пытаться убеждать в том чего нет. У меня ASUS ZenBook UX391U, купленный за 68000 и по характеристикам соответствующий MacBook Air 13" i5 за 120000. Я не вижу разницы в качестве этих продуктов. А в макоси не вижу преимуществ с вин10. Глянул на Амазоне, разница в цене 630$/1200$. Так что холивар вы всё-таки развели
Вот обгонят хотя бы Атом тогда и поговорим
Вот обгонят хотя бы интел i3 тогда и поговорим
———————— Сейчас мы тут —————————
Вот обгонят i5 тогда и поговорим
Вот сделают хотя бы макбук про на ARM тогда и поговорим
Вот сделают что б i9 обгонял тогда и поговорим
Вот когда они все маки на свои процессоры переведут, тогда и поговорим
Ну как будет работать какая нибудь IDEA на таком слабом железе без тормозов-тогда и можно рукоплескать будет
Ну как будет работать какая нибудь IDEA на таком слабом железе без тормозов-тогда и можно рукоплескать будет
Рукоплещите автору статьи habr.com/ru/post/510210
Их дело десятое.
Ценник яблочных фантазий скорее всего снизится немного с переходом на собственный чип. Яблочная компания при этом будет зарабатывать ешё больше, собственно за этим они все и затеяли.
В этом легко убедиться, если сравнить с любым компьютером похожей комплектации.
Или вы сравниваете по популярности среди разработчиков, дизайнеров и художников? Ну тут да, возможно доля и 40-50 наберется, не удивлюсь. Но мы то про весь мир в котором обычных пользователей гораздо больше.
А эйры сравнивал с примерно равными по начинке ноутами в примерно том же форм факторе.
С какими конкретно ноутами сравнивали? Просто интересно.
Мне вот интересно с чем вы сравнивали. Хочу вот тоже сравнить
Скорее всего вы найдете то что есть у apple но нет у другого ноута, но и наоборот тоже, как я и сказал apple за цену в полтора раза дороже тут уступает по некоторым характеристикам. Да и выбор других ноутов больше минимум на пару порядков. Можно подобрать без того что не нужно и с тем что нужно, а у apple ешь что дали.
Во-вторых мне цену не показывает на этот асер в этом магазине.
В-третьих не совсем корректно этот конкретно Acer сравнивать с Air, потому что это разные классы устройств (У Air фактически пассивно охлаждающийся процессор с минимальным TDP). Этот Acer надо сравнивать с базовой прошкой.
Ну так вот, согласно сайта производителя цена этого асера в этой комплектации — $999 (https://store.acer.com/en-us/laptops/ultra-thin/swift-5-pro-laptop-sf514-52tp-52lh — пруф)
Цена базовой прошки — 1300$ (https://www.apple.com/shop/buy-mac/macbook-pro/13-inch)
Да, она дороже, но.
У нее алюминиевый фрезерованный корпус (который вполне логично добавляет к цене)
У нее объективно лучший трекпад (стекло + haptic feedback вместо жидкого механического кликера, плюс монолитная конструкция без механически подвижных частей, за исключением датчика силы нажатия с минимальным люфтом)
У нее экран высокой плотности, а не full-hd. С очень большой долей вероятности с лучшей цветопередачей.
У нее тандерболт 3.
У нее мощнее графика (645 против 620)
У нее лучше динамики.
Если сравнивать этот Acer с Air (чего все-таки не стоит делать), то все еще грустнее для асера. Базовый эйр с такими же характеристиками стоит те же $999. И про экран, корпус, тачпад и тандерболт — это все к эйру тоже относится в полной мере.
При этом я ни в коем случае не утверждаю что Acer — плохой ноутбук. Нормальный. Скорее всего он с очень хорошим дисконтом в том магазине, который вы привели (скорее всего потому что никто не берет — msrp вы видели) и вероятно с этим дисконтом он стоит того. Однако он объективно дешеле техники Apple.
Это и есть основной плюс не apple ноутов, можно максимизировать только нужные тебе параметры, забить на то что не нужно и заплатить при этом в полтора-два раза меньше.
Но высокую цену я им вменить в вину не могу. Ну точнее да, они конечно дорогие, но они не в вакууме. Другие производители вокруг тоже делают железки и эти железки при том же наборе характеристик (помимо ТТХ в этот набор входит корпус из «премиальных» материалов, тандерболт, hi-dpi дисплей с хорошей цветопередачей, быстрые nvme ссд, а не древние sata ssd, качественные динамики и т.д. и т.п.)
Вам может быть все это неинтесно и это абсолютно нормально. Но если вам все это нужно то у вас нет выбора между маком задорого и не-маком задешево, есть выбор между моделями разных производителей в +- одну и ту же цену).
Еще раз — если кому-то это все не нужно, прекрасно, можно сэкономить и купить машинку попроще, я вообще на хромбуки пересел и доволен как слон, сильно больше макоси нравится.
И может быть алюминиевый корпус не лучше пластикового (хотя по жесткости все-таки объективно лучше), но он дороже. Как и все остальное перечисленное.
И поинт мой всю дорогу как бы в том что машинки с аналогичным набором характеристик от других производителей стоят ровно столько же. Что либо делает макбук не оверпрайснутым, либо делает оверпрайснутым не только макбук (но на самом деле не делает, они объективно столько стоят).
Кстати о высокой плотности. Как мне настроить 100% масштабирование у макбука?
Поставить https://github.com/avibrazil/RDM или любой аналог.
Вопрос в том, нужна ли эта комплектация. Недавно я собрал ПК на Ryzen 3600 и RX5700XT где-то за 90 тыщ. руб. Мой товарищ меня убеждал, что все это ерунда, и что надо брать моноблок iMac тысяч за 150, с каким-то i5 одного из предыдущих поколений и ГПУ на уровне RX580. На мое замечание о неадекватном соотношении цены и комплектующих, он возразил, что у iMac 5K экран, который сам по себе будет стоить где-то от 100 тысяч руб. Но если мне не нужен 5К экран в довесок к посредственному железу, то я предпочту собрать кастомную конфигурацию, которая удовлтетворяет моим потребностям.
Когда через несколько месяцев выйдут первые Apple Silicon Mac, мы будем знать больше
Действительно.
А сейчас как-то рано делать какие-то выводы или прогнозы.
Не создавший ничего, что как-то серьезно повлияло на рынок.
Сильнейший специалист. Его мнение, несомненно, очень важно для нас.
Если создатель Newton и BeOS
Каким образом бездарный барыга вдруг стал «создателем BeOS и Newton»? Гассе — типичный «эффективный менеджер».
Каких успехов при нем добилась Apple? Правильно, никаких. При нем она скатилась в УГ. Жадный барыга хотел иметь большую наценку, в результате чего Apple стала закономерно терять долю рынка. В результате сам Гассе получил пинка под зад.
Потом он организовал Be Inc., в которую пришли в т.ч. сотрудники Apple, которые и создали BeOS. И опять жадность барыги сыграла свою роль и похоронила систему, когда он не согласился на предложение Apple. Вместо этого Apple купила NeXT и вернула Джобса, с которым достигла фантастического рыночного успеха. А где сейчас BeOS и Be Inc.?
Оба случая демонстрируют профнепригодность.
Что там у нас еще? Ах да, гендиректор Palm (на самом деле нет — председатель совета директоров, и не Palm, а PalmSource). И закономерное отсутствие успехов на новом месте.
Так что с историей IT (и здравым смыслом) у меня все ОК.
То, что какой-то клоун занимает важный пост, не делает его менее клоуном.
Такой же бездарный и безграмотный клоун Рогозин был аж вице-премьером, а потом на должности главы «Роскосмоса» хохмил про космический батут. Но американский батут таки работает, а «Роскосмос» под руководством клоуна и «эффективного менеджера» только обещает.
А вы упорный.
Совершенно верно. Очень.
Ну что же, пройдёмся по фактам:
Это правильно. И желательно по фактам, а не по «фактам».
Гассе был исполнительным директором Apple Computer с 1981 по 1990
И начать можно с того факта, что Гассе был исполнительным директором отнюдь не с 1981 года.
Я верно понял, что Apple в период с 81-го по 90-й годы в вашем понимании «унылое говно»?
Нет, неверно. Apple скатывался в УГ, терял долю рынка и стоимость акций, за что Гассе потом и выкинули на мороз. Или по-вашему Скалли сделал это из зависти к успехам Гассе?
Простите, а вы всерьёз считаете, что глава компании — всего лишь жадный барыга, который наживается на труде рабочих?
Нет, я считаю, что именно Гассе — жадный барыга. Только наживаться он хотел не на мифических «бедных рабочих», а на покупателях продукции, неважно Apple или BeOS.
Ну попробуйте увести талантливых программистов из Apple/Google и создайте свою OS и свой комп под неё
Наверное не следует сравнивать рядового человека со стороны и многолетнего руководителя? Джобс тоже при своем уходе увел кучу народу и создал свою ОС. Это вообще совершенно обычная ситуация. Гассе тут не стал каким-то исключением из правил.
В реальности имело место гениальное умение Джобса продавать несуществующий продукт. Он сделал настолько крутую презентацию NextStep и её перспектив, что совет директоров купил его компанию
И как, они прогадали? Или все же оказались правы?
Но нет, решила крутая презентация.И неадекватные ценовые запросы Гассе. Мало ему было быть столбовой дворянкой, а в таких случаях обычно остаются с разбитым корытом. Гениальный управленец, чо.
а вовсе не шантаж вендоров со стороны Microsoft в виде прямого запрета ставить BeOS на новые компы под угрозой потерять лицензию на Windows
Microsoft угрожала Яблоку не продавать ему лицензии на Windows? Ишь какая страшная угроза!
Не будь Гассе таким жадным, BeOS продолжала бы жизнь на Маках, и угрозы Microsoft ничего тут не смогли бы изменить.
А ничего, что
Ничего. Джобс создал саму Apple для начала. И NeXT он-таки сумел вытянуть, пусть даже продав Яблоку. Да, сумел продать, сумел доказать перспективы. Много-много раз сумел. В отличие от Гассе и Be inc., который регулярно «ну нишмагла я, нишмагла». Крупнейшее достижение — настучал на Джобса, если бы не оно, то никто и имени его сейчас не знал бы.
Не вижу больших отличий между бизнесами «Next-NextStep-Джобс» и «BeBox-BeOS-Гассе».
Ни малейших, конечно. NeXT шикарно живет в виде MacOS. А BeOS осталась только в анналах, не имея существенного коммерческого успеха, о чем я и написал в первом же комментарии, на что меня обвинили в незнании IT-истории. Очень смешно.
Там же, где и Norton, Borland, Netscape и OS/2
Все вышеперечисленное было успешными и популярными фирмами/продуктами. Be не снилась даже тысячная доля от их распространенности.
До такой степени, что влюблённые фанаты уже 18 лет пилят Haiku.
Пусть пилят. К рыночному успеху это не имеет ни малейшего отношения.
Другие фанаты создали Linux, и он используется на миллиардах компьютеров. И это успех.
Кончайте уже позориться и называть талантливых людей барыгами и клоунами.
Талантливым был Джобс, талантливыми были создатели BeOS. А Гассе был, есть и будет только клоуном, стукачом, подсидевшим Джобса и занявшим после этого его место, и бездарным барыгой, профукавшим по своей жадности и недальновидности отличный продукт. Единственный его талант — делать вид, что он гениальный управленец. Но результаты говорят сами за себя: он слил всё, за что брался.
Так что клоунов и барыг я буду называть именно клоунами и барыгами.
Работает вполне себе неплохо. Уж получше х86 в таком формфакторе.
Galaxy Book S недавно выпустили с Lakefield. Результат — полный провал.
videocardz.com/newz/intel-core-i5-l16g7-lakefield-processor-tested
Плохое время жизни от батареи, троттлинг и на CPU и на GPU.
Он даже в однопотоке до паспортных частот не достаёт:
This is mainly due to limited maximum clock speed oscillating around 2.4 GHz. The editor says that he couldn’t observe advertised 3.0 GHz boost clock during his tests.
GPU LKF по производительности примерно аналогичен Snapdragon, когда не троттлится :)
Gaming is not great on the Galaxy Book S. The graphics performance drops after a little while (Fire Strike stress test not passed at 82%) and even simple titles hardly reach playable frame rates, which is also a result of the low CPU performance.
Intel скинет немного рынка
Немного? :) У Macos около 10% рынка, которые до недавнего времени использовали только интелы. Т.е. интел одномоментно лишится 10% рынка. Это прям очень много, особенно на фоне того, что им сейчас нечего предложить против амд.
Просто напомню что есть еще рынок серверов и высокопроизводительных рабочих станций, где у Apple доля ощутимо меньше.
Как бы Apple об этом уже сказала.
Примеры из истории —
Планшеты были до iPad, но iPad сделал революцию.
Умные телефоны были и до iPhone.
Думаю, что в Apple решили, что время ARM на десктопе пришло.
Опыт на iPad Pro показал, что «да все готово».
На серверах ARM придет, когда Apple начнет продавать свое облако на ARM.
Я думаю, даже когда это случится, многие будут еще некоторое время проходить стадии принятия.
Даже сейчас многим людям тяжело признать, что ноутбуке\серверах, амд лучше по всем параметрам. Я так и не понял до сих пор, почему даже имея на руках факты, люди не могут это принять сразу.
А тут, когда ты можешь уже взять свой телефон, скомпилировать любой бинарь и запустить прямо на устройстве, люди продолжают делать какие-то ложные предположения, устраивать срачи.
Как будто х86 им мать родная. Это на столько глупо придерживаться какого-то лагеря. Вы же в первую очередь сами выигрываете от такого положения дел.
С arm всё не так — софт, который поддерживает эту архитектуру, нужно как минимум перекомпилировать, а что-то более редкоиспользуемое и/или старое вообще не заведётся никак.
Это очень интересный вопрос, потому что arm на amd64 (на маке) запускается в докере на ура.
/ес-но через эмуляцию/
Остается только, чтобы на арм платформе хоть как-то работала эмуляция amd64 и дело в шляпе
А под Windows большинство приложений пишется под .NET.
То, переход под arm, это просто проблема времени и денег.
Да ситуация точно такая же. Просто другой уровень. Какая разница мне как потребителю, х86 или аарч64? Конечно никакой, мне важен перформанс и потребление.
И в отличие от грязного мира х86, где все так огорожено патентами и не подъемной лицензией, армы это как свежий глоток воздуха для конкуренции.
Даже если сейчас будет чуточку сложнее, завтра выиграете от этого вы лично. Пусть какой-то редкий софт сейчас не запускается, но это не повод быть под гнетом монополии.
Это как не менять президента какой-то гипотетической страны, ибо первое время будет хуже. И что теперь, всю жизнь страдать со старым маразматиком?
Пусть какой-то редкий софт сейчас не запускается,
Это, безусловно, повод радоваться что не сможешь сделать свою работу нормально или результатами мало кто сможет воспользоваться?
но это не повод быть под гнетом монополии.
Да да… будет зоопарк как мобильных приложения. Каждый себе напихает «новый-пупер-модуль-который-делает-ЗБСЪ!» и под него заточат прикрутят пару-тройку приложений. Потом или будут писать приложения под «минимальный набор как у всех» и будут удивляться «А что за хрень ?!» или будут «ноубук для экселя» и «ноутбук для фотошопа» и «ноутбук для поиграться». Проходили уже такие вещи (математические сопроцессоры, GPU, крипто и векторые вычисления и т.д.) — добром это не кончилось, ибо получились «CPU, который может все, но хреновенько и жрет как не в себя» поскольку все хотят «все и сразу» не сильно напрягаясь и бесплатно.
Это как не менять президента какой-то гипотетической страны, ибо первое время будет хуже. И что теперь, всю жизнь страдать со старым маразматиком?
Можно страдать с новым «с расстройствами личности» :) Скучно, как со «старым», точно не будет :))) Так себе альтернатива.
Не получится обмануть физику и экономику.
— или быстро и дешево но нифига не универсально (спец модули\ускорители)
— или универсально дешево, но нифига не быстро — (cpu без наворотов)
— или быстро и универсально но нифига не дешево — (cpu c наворотами, модульные решение (CPU + GPU + ...), облака, суперкомпьютеры и т.д.)
Во-первых, в режиме эмуляции все работает и работает неплохо.
Или софт никому не нужен, ибо то, что нужно и не заброшено — будет перекомпилировано.
Можно страдать с новым «с расстройствами личности» :) Скучно, как со «старым», точно не будет :))) Так себе альтернатива.
Это уже все давно предусмотрено специальными процедурами. Сменяемость власти, импичмент и прочая «муть», которую можно конечно игнорировать силовыми путями.
Не получится обмануть физику и экономику.
Это глупость, ибо ограничения не физические\технические\интелектуальные.
То, что интел кормил мир своим 14нм — не технические трудности.
Они просто решили, что раз у них нет конкуренции, то и делать ничего не надо. Это как шахматная партия. Они сдали атомы, потому что с армами на одинаковых техпроцессах они не шли ни в какое сравнение.
Но решили подоить мир на серверах и десктопах.
И у них это успешно получалось, но всему приходит конец.
На серверах уже неплохо себя показал Reference Implementation на армах, уже молчу про амд, он там сейчас правит.
Телефоны уже давно проиграны. Ноутбуки на райзенах сейчас не идут ни в какое сравнение даже с 10нм интела.
Остался десктоп, где нет ограничений по тепловыделению и потреблению.
И раз вы затронули физику. То идите дальше и смотрите на фундаментальные физические ограничения. Конкретно, но просто.
Например закон сохранения энергии и прочее.
Или софт никому не нужен, ибо то, что нужно и не заброшено — будет перекомпилировано.
Вот-вот, это основная причина, почему я с опасением смотрю на такое резкое продвижение arm во все компьютеры. Не запустится старый софт, часть которого имеет закрытые исходники, а часть не компилируется новыми версиями компилятора? Ну и пусть, зато прогресс.
При этом рядом вы пишете про эмуляцию — казалось бы, если x86 эмулируется, то какая разница заброшен софт или нет? Берёшь и запускаешь.
Мне действительно интересен этот вопрос и я не знаю, как сейчас дела обстоят касательно «полноценности» эмуляции.
Таких будет единицы. И если софт реально уже не поддерживается, то должен умереть. На его место придут новые. Эмуляция медленнее, но не поддерживаемый софт быстро работать не должен.
Это звучит радикально, но дело в том, что нет никакого другого пути.
И это продвижение не такое уж резкое. Просто обычные пользователи не обращали на это внимание. Многие до сих пор отрицают это явление, но тут уже клиника.
На рынке миллиарды арм устройств, для которых сейчас пишется софт. Десктоп тут уже не в топе давно.
Линукс со всем репозиторием уже давно на арме работает.
Еще в 2010м году запускал убунту на телефоне с арм и качал торренты через transmission.
Не получится обмануть физику и экономику.
Это глупость, ибо ограничения не физические\технические\интелектуальные.
То, что интел кормил мир своим 14нм — не технические трудности.
Это как раз экономические :) Не смогли они осилить следующий техпроцесс для своих процессоров, в то время как Samsung, TSMC, GlobalFoundries вполне смогли.
Полагаю Интел вполне знакомы с тем, что уменьшение размера чипа уменьшает себестоимость? Эти уж точно были бы рады такому пути.
Они просто решили, что раз у них нет конкуренции, то и делать ничего не надо.
А что серверное было предложеннии? неудачный бульдозер для отдельного класса задач которые оказались широко распространенными?
Это как шахматная партия. Они сдали атомы, потому что с армами на одинаковых техпроцессах они не шли ни в какое сравнение.
Когда делались и проектировались Atom вопросы «дешево и достаточно производительности» только появились, а Arm только только начали делать первые шаги на мобильных устройвах и планшетах (не серьезно считать «пошаговые стратегии» при открытии книжек или ICQ на КПК при разрешении 320х240). Не нужно сравнивать 10...5 лет назад и сейчас. Если так уж хочется — надо бы сравнивать Intel XScale с чем-то того-же временного отрезка. У AMD процессоры «AMD Opteron A» серии.
И раз вы затронули физику. То идите дальше и смотрите на фундаментальные физические ограничения. Конкретно, но просто.
Например закон сохранения энергии и прочее.
Спасибо, конечно, за подсказанное направление. Но в общем-то то известные проблемы — разрешение литографического оборудования (физика ?) и его цена (экономика?), цена производства кристалла и брак (экономика?), токи утечки (физика ?), нелинейное возрастание преобразование потребляемой электроэнергии в тепло при возрастании частоты (физика ?), теплоотвод от малой площади кристала (физика ?) ну и всякие побочные спецэффекты вроде подвижности зарядов и длинных линий при высоких частотах (физика?).
Пока никому не удалось этот клубок «распутать». Arm «решает» эти проблемы всякими big.LITTLE\DynamIQ что там насчет последних «ARM Cortex-X1» и «ARM Ethos-N..»? Наверное «Cortex-X Custom (CXC) program» ARM придумала от нечего делать?
Это как раз экономические :) Не смогли они осилить следующий техпроцесс для своих процессоров, в то время как Samsung, TSMC, GlobalFoundries вполне смогли.
У вас свой какой-то мир. Откройте вики хотя бы для начала.
Они не то что не могли. Они не захотели. Они еще в 2011 году заплатили ASML за разработку в уход в глубокий ультрафиолет.
И эта технология давно уже была готова.
У вас свой какой-то мир. Откройте вики хотя бы для начала.
А зачем вики, если можно первоисточники глянуть и сравнить?
Intel готовится к релизу первых настольных процессоров с 7-нанометровой топологией. Их выпуск может состояться в 2022 г., и в них ожидается поддержка памяти DDR5 и интерфейса PCI-Express 4.0.
Intel CFO: “10nm isn’t going to be the best node that Intel has ever had”
2019 Investor Meeting: Intel Previews Design Innovation; 10nm CPU Ships in June; 7nm Product in 2021
и новости агуста-сентября 2018 г.
Компания AMD представила серверные 64-ядерные процессоры Epyc Rome на базе новой архитектуры Zen 2 с нормами технологического процесса 7 нм, и с новой многокристальной компоновкой Chiplet Design.
Уже в 2019 г. AMD намерена перевести все свои процессорные линейки на архитектуру Zen 2 с нормами 7 нм. Сейчас, по данным компании, уже начаты поставки первых образцов процессоров Epyc поколения Rome на базе этой архитектуры ключевым заказчикам.
All Of AMD's 7nm Processors To Be Manufactured At TSMC
Может у интел и AMD тоже свой мир? :)
О чем вы вообще говорите. Основное оборудование для литографии всем поставляет одна компания. Не может такого быть, что самсы сделали, а интел не смогли.
Насколько я помню, у AMD\Samsung\TSMC и Intel используются разные изоляторы в полупроводниках. Из-за этого Intel и наступила на «физические грабли» с токами утечки и тепловыделения и технологически уперлась в тупик. Техпроцесс включает не только литографию, но из состав полупроводников из-за присадок разные и это влияет на дизайн чипов.
В смысле какую точку зрения они якобы отстаивают?
используют разные изоляторы в полупроводниках. Из-за этого Intel и наступила на «физические грабли» с токами утечки и тепловыделения и технологически уперлась в тупик.
И 6 лет они никак не хотели пробовать новые материалы.
Зачем вообще вы приводите эти бредовые догадки. К чему они? Вы не можете знать на таком уровне что там происходит.
Можно только оперировать теми фактами что есть. Куда вас вообще всех несет. Изоляторы у них не той системы…
Зачем вообще вы приводите эти бредовые догадки. К чему они? Вы не можете знать на таком уровне что там происходит.
Это физика, и ее практическое ответвление — электротехника. Говорят, если ее учить в школе, а после, в специальных учебных заведениях — догадки не очень нужны. А еще говорят, что знание немногих принципов освобождает от знания многих фактов.
Можно только оперировать теми фактами что есть. Куда вас вообще всех несет. Изоляторы у них не той системы…
Может обратимся к первоисточникам, истории, чуть к перспективам и «магии» станет чуть меньше?
Есть логический дизайн чипа, есть физический дизайн чипа, есть материалы из которых изготавливают, отработанный техпроцесс травления, промывки, нарезки, упаковки, рисования масок и т.д.
Но вашему «просто попробовать» это 5 минут работы? Это нужно заново сделать физической дизайн кристалла, оттестировать и запустить в процесс производства. На это уходят годы!
Они просто решили, что раз у них нет конкуренции, то и делать ничего не надо.
Это мягко говоря неправда.
«Intel continues its Tick-Tock domination, with 10nm CPUs arriving in 2016, and 7nm CPUs in 2018»
Они столкнулись именно с техническими трудностями, которые полностью не могут решить до сих пор.
Остался десктоп, где нет ограничений по тепловыделению и потреблению.
Они там точно такие же, разве что несколько более расслабленные.
Все десктопные процессоры ограничены по тепловыделению. Иначе бы они работали на максимальной частоте на всех ядрах без ограничений.
Это мягко говоря неправда.
14нм запустили в 2014м году. И ваша статья 1-е декабря 2014 года. Технические трудности были и будут всегда.
Понятно, что тогда у них могли быть какие-то трудности, но к этому моменту они все уже решились бы давно, если бы хотели.
О чем вы вообще говорите. Основное оборудование для литографии всем поставляет одна компания. Не может такого быть, что самсы сделали, а интел не смогли. Интел даже сейчас технически самый продвинутый из них. Вы другие статьи более технические почитайте на тему, раз решили влезть в историю.
Все десктопные процессоры ограничены по тепловыделению.
Ну блин, это очевидно, что ограничения в принципе есть. Тут не детский сад, чтобы такое разжевывать. Вопрос в количестве. Все в нашем мире ограниченно так или иначе
И ваша статья 1-е декабря 2014 года.
И? Посмотрите Интеловский слайд с планом выхода техпроцессов.
В 2014-м году 10нм уже находился в разработке. Тик-ток всё так же работал без сбоев. Ничего не предвещало беды.
У контор типа Интел всё расписано на годы вперёд. Ваше заявление "Они просто решили, что раз у них нет конкуренции, то и делать ничего не надо." это просто чушь.
Основное оборудование для литографии всем поставляет одна компания.
Инструменты одинаковые, а техпроцессы очень разные, с разными параметрами, разными материалами.
Дайте разным людям одинаковые инструменты, но дома они построят разные.
Интел даже сейчас технически самый продвинутый из них.
Самый продвинутый, который смог выпустить только двух-ядерник на 10нм со смешными частотами и низком Yield-е, отстав на два года от собственного плана? А спустя 2 года на новом 10нм техпроцессе родил 4-ядерник со всё ещё низкими частотами?
Вы другие статьи более технические почитайте на тему, раз решили влезть в историю.
Воспользуйтесь своим советом.
Ну блин, это очевидно, что ограничения в принципе есть
Они «не в принципе есть», а для многоядерных процессоров только они и есть.
И? Посмотрите Интеловский слайд с планом выхода техпроцессов.
В 2014-м году 10нм уже находился в разработке. Тик-ток всё так же работал без сбоев. Ничего не предвещало беды.
Господи. Вы думаете, что интел 6 лет не могла запустить новый техпроцесс? А самсунг и ТСМЦ пришли и сразу смогли, ага, конечно. Учитывая, что оборудование они все покупают в одном месте.
Инструменты одинаковые, а техпроцессы очень разные, с разными параметрами, разными материалами.
Дайте разным людям одинаковые инструменты, но дома они построят разные.
Ну это комментировать вообще бесполезно. Это не хлебопечка, вы не можете играться там с материалами разными.
Короче у вас нет пруфов, простите, но я больше не буду вести с вами диалог. Вы пишите глупости, основанные на каком-то собственном бреду.
Вы думаете, что интел 6 лет не могла запустить новый техпроцесс?
Да, именно так. Об этом не писал только ленивый.
Это не хлебопечка, вы не можете играться там с материалами разными.
www.intel.com/pressroom/kits/advancedtech/doodle/ref_HiK-MG/high-k.htm
fuse.wikichip.org/news/525/iedm-2017-isscc-2018-intels-10nm-switching-to-cobalt-interconnects
www.quora.com/Why-is-Intel-pursuing-Cobalt-but-TSMC-and-Samsung-are-not-and-how-much-of-an-advantage-is-Cobalt-over-Copper-interconnects
Короче у вас нет пруфов, простите, но я больше не буду вести с вами диалог. Вы пишите глупости, основанные на каком-то собственном бреду.
Откуда вы знаете что у меня их нет?
А у вас какие пруфы? «Я так сказал и точка?»
Ну да, с таким весомым пруфом даже личное признание какого-нибудь топ-менеджера TMG под присягой не будет значения :D
Несбывшиеся планы Интел, ровно как неудавшиеся попытки выкатить 10нм — мы видели воочию в последние несколько лет.
Вы живёте в альтернативной реальности, походу.
www.notebookcheck.net/Intel-admits-that-the-10nm-process-is-doing-poorly.456063.0.html
Нельзя остановить конвейер просто потому, что вам так захотелось.
Не поленился и посмотрел ссылки. Нигде не сказано, что кобальт там или что-то ещё привело к проблемам.
Но предполагать, что техспецы в интеле дураки и они не попробовали, что лучше… ну ок.
Я просил пруфы, что Интел по техническим причинам, реально не смогла в 10нм. Но я сомневаюсь что вы такое найдете )
Ну потому, что такое ну совсем глупо предполагать.
У меня пруфов нет, но я основываюсь на фактах хотя бы. 14нм интела в виде готового продукта очень хорошо себя чувствует. Да даже если бы у них были какие-то проблемы, они бы это уже решили давно, если бы хотели.
Другое дело, что новый техпроцесс стоит много денег и это уже реальное препятствие. Это просто здравый смысл.
Все "пруфы" с 10нм что вы сейчас найдете будет 2019+, когда они очнулись и в торопях начали этот 10нм делать. Но это никак не означает, что раньше у них были с этим проблемы.
Все «пруфы» с 10нм что вы сейчас найдете будет 2019+, когда они очнулись и в торопях начали этот 10нм делать. Но это никак не означает, что раньше у них были с этим проблемы.
А если посмотреть внимательно?
Intel: We Will Not Skip 10nm For 7nm, Ice Lake On Track For End Of 2020 Launch
Here is what Intel had to say, however:
So again it's a scenario where there is a lot of goodness in 10-nanometer that carries forward to 7-nanometer. And quite frankly, we're at a point in 10-nanometer where we have come through [ph] the order of (00:31:19) disentangling the core fundamental technology issues. And we're now in a point where we're ramping in high volume production
Начальные планы:

Результат:
Выступая на конференции UBS, Венката «Мурти» Рендучинтала (Venkata Murthy Renduchintala) вернулся к обсуждению причин, вызвавших задержку с переходом Intel на 10-нм техпроцесс. Желание сохранить действие так называемого «закона Мура» в своё время заставило Intel выбрать достаточно агрессивную цель по масштабированию плотности транзисторов – она должна была увеличиться сразу в 2,7 раза. Само по себе такое масштабирование не было единственным источником проблем. Как признался Венката, компания на ранних этапах разработки 10-нм технологии предусмотрела несколько нововведений в сфере литографии, которые должны были обеспечить нужный уровень масштабирования плотности. Казалось, что по отдельности они работали без проблем, но в сочетании всё оказалось не так, как предсказывали специалисты Intel.
Итог этих просчётов хорошо известен – 10-нм техпроцесс пришлось задержать на два года относительно первоначального срока. В этом контексте нужно помнить, что первые 10-нм процессоры в лице Cannon Lake формально вышли на рынок в 2018 году,
Во время финансового отчета Intel глава компании Брайан Кржанич сообщил, что производство чипов на 10 нм технологическом процессе задерживается. Теперь запуск 10 нм-продуктов состоится не во второй половине 2018 года, а в 2019 году. При этом он не может сказать, в первой половине или второй.
Это еще один неприятный поворот в истории перехода Intel на 10 нм, что и так не соответствует оригинальным планам. По словам Брайана инженеры выявили проблемы с эффективностью 10 нм техпроцесса, однако масштабирование производства может занять более года.
Мы продолжаем развивать наш 10 нм техпроцесс. Мы уже осуществляем небольшие поставки, а эффективность производства растет, однако скорость оказалась ниже, чем планировалось. В результате этого масштабный выпуск передвинут со второй половины 2018 года на 2019 год.
Сами представители Intel говорили «Упсъ! Ну не смогла я, не могла...» Смысл додумывать что-то за производителя?
Но я сомневаюсь что вы такое найдете )
Ну потому, что такое ну совсем глупо предполагать.
Зачем что-то предполагать, если они сами об этом говорили чуть ли не прямым текстом.
У меня пруфов нет, но я основываюсь на фактах хотя бы.
Просто потрясающе. О каких тогда (альтернативных) фактах идёт речь?
Напомнить что было, когда Интел вместо ожидаемого Cannon Lake на 10нм выкатили Kaby Lake на 14нм в 2016?
www.fool.com/investing/general/2016/01/18/what-is-the-name-of-intels-third-10-nanometer-chip.aspx
Management has told investors that they are pushing to try to get back to a two-year cadence post-10-nanometer (presumably they mean a two-year transition from 10-nanometer to 7-nanometer)
14нм интела в виде готового продукта очень хорошо себя чувствует.
Ага ^_^ Ядро TGL, которое они делали под 10нм для выпуска в 2018г пришлось портировать под 14 нм для того чтобы хоть что-то вы пустить на десктоп в 2020г.
Это факты.
Напоминаю, конвейер не остановить. Разработка процессора в Интел занимает 5 лет. Если вы даже на 1 год затянете выпуск, эти люди должны что-то делать. А получилось, что делают они то, что не могло быть выпущено.
Все «пруфы» с 10нм что вы сейчас найдете будет 2019+, когда они очнулись и в торопях начали этот 10нм делать.
Признайтесь, вас держали в пещере и только недавно выпустили?
Вы пропустили 10нм процессор Интел в 2018г? i3-8121U
Надо полагать, что полностью остановить все они не могут, ибо потом не запустят.
Но и торопиться им не к чему.
Ну и это слишком маловероятно, что 2 компании уже 5нм запустили, а там на секунду EUV.
Отговорки на дурака
Ну так вы путаете экономическую целесообразность и техническую возможность.
Т.е. компания Интел всегда хвалилась своим тик-током и нон-стоп лидерством, а потом вдруг расхотела ^_^
company’s plans to start commercial shipments of its “Cannonlake” processors for mobile devices in mid-2016
www.kitguru.net/components/cpu/anton-shilov/intel-we-will-reveal-schedule-for-10nm-chips-later-this-year
Я конечно понимаю, что с вашей стороны идёт толстый троллинг, а я и Lofer вас кормим, но гулять — так гулять, и я не смог удержаться и описал что происходило в вашей альтернативной реальности:
Пустив crackpipe по кругу, Совет Директоров решил:
«Воу, двухлетний цикл это слишком быстро, давайте сделаем 6-летний!
Неплохо бы сломать весь конвейер разработки — пусть одни люди сидят без работы, а другие делают что-нибудь ненужное, а мы потеряем бабло и дадим конкурентам преимущество.
Но инвесторам — то тупым идиотам, пообещаем вернуться к двух-летнему.
Вот развели лохов!
Давайте сделаем ядра под 10нм, а потом их же выпустим на 14нм, ведь у нас слишком много денег. Нужно что-то с этим делать!
Так же срочно нужно построить фабрику D1X, но разумеется ничего на ней производить не будем, а если спросят, скажем что запустили пилотное производство 10нм :)
Давайте растянем запуск производства Cannonlake года этак на два. Чтобы был низкий выход годных чипов, будем ссать на пластины. А сам процессор нужно сделать как можно более жрущим и работающим на низкой частоте. Ядер конечно нужно делать не больше двух! GPU можно сделать, но он всё равно будет выключен.
Пипл схавает!
Разумеется, выпустить нужно очень маленькую партию.
Так можно потратить много денег на настройку производства и меньше заработать.
Потом мы будем ещё 2 года разрабатывать новый техпроцесс, а чтобы поглумиться над юзверями, будем для ноутов выпускать 10нм чипы с низкой частотой и 4 ядрами, и одновременно 14нм чипы с большой частотой и 6 ядрами, чтобы эти лошары совсем запутались!»
Я ничего не упустил? Всё так и было? :)
Но и торопиться им не к чему.
Да, надо подождать, когда AMD с 5нм займёт значительную долю рынка.
Отговорки на дурака
Известно, что на собрании инвесторов можно скармливать любую дичь ^_^
а потом вдруг расхотела
Когда каждый тик стоит десятки миллиардов долларов?
Вы строите теории заговоров вокруг коммерческой компании. Когда все легко объясняется деньгами.
АМД в свое время так же стала фаблес, ибо у каждого тика есть окупаемость. И когда АМД, нвидиа, эппл, квалком и куча других компаний делают процы на одном заводе, и Интел только у себя…
Люди любят заговоры )
Когда каждый тик стоит десятки миллиардов долларов?
Вы строите теории заговоров вокруг коммерческой компании. Когда все легко объясняется деньгами.
Именно деньгами все и объяснятся.
Уже в 2016 году Intel начала подстилать соломку Intel отказывается от стратегии «тик-так»
Нужно было сохранить\удержать деньги инвесторов и не допустить падения акций, в противном случае деньги ушли бы «кому-то еще» (АМД, Nvidia, Apple и т.д.), а деньги вкладывают «в растущие», а не «тонущие».

График стоимости акций Intel (синий) и AMD (фиолетовый). Нет новых продуктов — акции не растут, новый продукты появились — акции пошли расти.
По странному стечению обстоятельств а 2016 году «оказывает от Тик-Так в польз более прогрессивной и полезной для клиентов стратегии», в то же время 10нм буксуют, intel официально признает «не смогла, надо еще года два пилить техпроцесс». А как отладили 10 нм так официально объявили в конце 2019 "Также представитель Intel заявил, что компания намерена вернуться к своему старому графику крупных обновлений раз в 2-2,5 года. Речь о пресловутом графике «тик-так», когда новый техпроцесс и новая архитектура внедрялись примерно раз в два года. "
Если выглядит как утка, крякает как утка, плавает как утка, гадит как утка — это, скорее всего, утка.
Все остальные производители окупали новый техпроцесс вместе, в то время, как интелу для запуска нового техпроцесса придется долго его отрабатывать.
И сейчас перед ними стоял и стоит не простой выбор. Либо тратить тонны денег и выпускать 7нм, когда конкуренты уже вовсю осваивают 5нм EUV или заказывать свои чипы на TSMC, что негативно может сказаться на цене на рынке акций.
Но они некоторые свои чипы, не ЦПУ, уже выпускают на других заводах вроде. То ли optane то ли что-то еще.
Вероятно интел останется на 10нм, а последующие версии будут заказывать.
Это еще не считая того, что не факт далеко, что ASML готова им прямо завтра выдать все необходимое оборудование, сколько бы оно там не стоило, они надо полагать тоже не резиновые.
Вы строите теории заговоров
Это вы, как человек, который отрицает слова менеджеров Интел, отрицает все объективные факты, отрицает материалы аналитиков и журналистов, мне говорите? ^_^
Жир тут не просто уже капает, а гигантский столб раскалённого жира приближается к Луне.
Но нужно больше!
Тут английская поговорка от Lofer подходит как нельзя лучше.
Если выглядит как утка, крякает как утка, плавает как утка, гадит как утка — это, скорее всего, утка.
Интел постепенно отказывалась от этого тик-така, ибо это дорого, особенно, если в этом нет необходимости прямой.
Компания, которая торгуется на рынке не выйдет и не скажет: «вы знаете, мы тут решили подоить наших кастомеров, поэтому не запускали 10нм на всю катушку»
Это же реально выглядит как детский сад. Уж извините, если вы хотите верить в то, во что вы хотите, то никакие аргуементы и здравый смысл тут не помогут.
www.tomshardware.com/news/intel-announces-delay-to-7nm-processors-now-one-year-behind-expectations
«The company's 7nm-based CPU product timing is shifting approximately six months relative to prior expectations. The primary driver is the yield of Intel's 7nm process, which based on recent data, is now trending approximately twelve months behind the company's internal target.»
Выход годных катастрофический =)
Но конечно же «они всё врут»(с)
Давайте спросим ваш бредогенератор, в чём же «истинная»(tm) причина задержки.
Забавно, они ещё и на штрафные санкции могут попасть, если не поставят свои GPU для супера Aurora, который заказал DoE (проект и так уже задержан на 2 года). Наверняка в контракте это прописано.
Интел постепенно отказывалась от этого тик-така,
Да что вы говорите? ^_^
wccftech.com/intel-2021-2029-process-roadmap-10nm-7nm-5nm-3nm-2nm-1nm-back-porting
Starting off with the process roadmap, Intel will be following a 2-year cadence for each major node update. We got a soft launch of 10nm (10nm+) in 2019 which will be followed by 7nm in 2021, 5nm in 2023, 3nm in 2025, 2nm in 2027 and 1.4nm in 2029.
то никакие аргументы и здравый смысл тут не помогут.
Всё ещё жду от вас аргумент, хотя бы один :)
Как все сказанное ранее относится к вашим ссылкам?
Изъясняйте свои мысли точнее, не жалейте бумаги.
Начнем с начала. Ну ок, они отстают на полтора года с внедрением 7нм. Это по вашему сейчас доказало? Кто спорил с этим? Сам придумал сам поправил, молодец.
То же самое по второй. Мы тут с вами говорили про последние 6 лет, а вы кидаете планы, как космические корабли Интел будут бороздить космические пространства. Почти как Рогозин.
У вас кончились аргументы и вы решили написать хоть что-то?
AMD (NASDAQ: AMD) Shares Soar Over 16% as Intel Flounders in the 7nm Arena
Акции AMD рекордно выросли на фоне провала Intel — больше чем на 16%. Сейчас они торгуются по цене $69,40.
Причиной роста акций AMD журналисты называют недавний финансовый отчёт Intel по результатам второго квартала 2020. В связи с этим компания «синих» рассказала, что выпуск 7-нм процессоров сдвигается на шесть месяцев от запланированной даты.
В результате акции Intel упали. В настоящее время они торгуются по цене в $50,59, продемонстрировав падение на те же 16%. Положение усугубляют заявления различных аналитиков. Например, один из экспертов сказал: «Закон Мура не ждёт Intel». Также он добавил, что задержки «синих» положительно скажутся на AMD, которая теперь имеет преимущество в течение следующих трёх лет.
Полагаю, прения после этого перестают иметь какой-то смысл…
Вы ничего не перепутали? Это у ARM один лицензиант на всё, а у x86 есть как минимум три независимых источника.
Но я могу ошибаться, конечно, ибо сварщик не настоящий.
А снаружи к этим трём влезть, да, сложно — точнее, нет смысла: что-то уровня не выше SSE произвести может каждый, но зачем?
Но если вдруг ARM'у захочется кого-то не допустить к этой кормушке — у него будет сильно больше возможностей, чем у Intel или AMD, для которых в основном и перекомпилировать не надо.
Но если вдруг ARM'у захочется кого-то не допустить к этой кормушке — у него будет сильно больше возможностей
Вас ФАС за такое с говном съест. Это невозможно.
А если станет возможно, то у нас уже будет переход на АРМ и можем просто перейти далее на RISC-V и тому подобные.
Почему? Ему MIPS в затылок дышит, даром что кривее. Intel отъедает верхний сегмент. Нет тут никакой монополии…
> и можем просто перейти далее на RISC-V и тому подобные.
Можем. (Но сколько лет будем догонять?)
Это замечательно, что с хуавеем так поступили. Может они поумнеют и пойдут на риск-5. И сделают это первыми, а не как обычно по копирке обводить.
Команды процессора это контракт взаимодействия используемый миллионами. Если он может существовать в опенсорс, то туда ему и дорога. В софте как-то коллоборацию осилили вроде. Более менее
Не RISC-V единым.
стоит добавить его полусвободных коллег: power (OpenPOWER), sparc (LEON и OpenSPARC) и даже ARM, который «открыт и бесплатен» для некоторых категорий пользователей.
Только вот у RISC-V нет единой точки отказа — есть международная кооперация и множество центров развития. Даже центр координации теперь не в США, а в Швейцарии.
Так что разница гигантская.
И им конкуренты на этом рынке не нужны.
Это значит, что лицензия вам обойдется в такие деньги, что лучше не связываться. Поэтому никто и не связывается.
АРМ изначально идет по другому пути, у них другой подход, специально под лицензирование.
И даже АРМ конечно же не предел мечтаний. Набор комманд должен быть открытый по хорошему. Но это уже следующий этап.
Но на данном этапе, АРМ как некий стандарт(набора команд) не то, что лучше, а единственно разумный, если выбирать меж двух и не рассматривать всякие RISC-V.
Intel не продаст лицензии ни за какие деньги (ну разве что скупить Intel целиком), но есть AMD и VIA. Это принципиальная разница.
> Но на данном этапе, АРМ как некий стандарт(набора команд) не то, что лучше, а единственно разумный, если выбирать между двух
Скорее таки да. Intel безумен. AMD не сильно отстаёт. Но есть и другие факторы, начиная с объёма наработок.
Про Винду на ARM — даже не смешно, кто видел как это работает — тот знает почему.У как она работает? Вы на чем её видели?
Всякие Qt/Java, с ними конечно сложнее. Там с HDPI-то проблемы, не то что с компиляцией в виндовый arm.
Вроде в следующем же году собирались сделать эмуляцию x64 в винде(пока есть только x86), но пандемия двигает все планы ¯\_(ツ)_/¯
Dex — это когда телефон пордключается с монитору, клаве и мышке и выводит «взрослую» оболочку а не мобильную.
С учетом того, что приложения будут работать одинакого как на iPhone так и на iPad и Мак — это означает, что в будущем Apple просто предложит подключать iPad/iPhone к монитору и мышке (благо USB-C/Thunderbolt позволяют подключить всё через 1 порт).
И после подключения, все приложения просто переходят в режим OS X интерфейса, открывая ровно те же документы, что и пару минут ранее в iOS…
Таким образом, большинству достаточно будет иметь iPhone/iPad и сетап в виде монитора+мышки+клавы, экономя деньги на «компьютерное» железо.
Да и обновляться намного удобнее, купил новый телефон = купил новый компьютер.
PS На такое «скрещевание» намекает как минимум:
- в обратную сторону (приложения с iOS) на мак будут работать сразу на старте и из коробки.
- выпуск клавы и тачпада для iPad и адаптацию OS под это
Если Apple даст просто подключить iPad к монитору через стандартный type-c — это уже будет не Apple, это же бесплатный фукционал, не в их стиле, они должны переосмыслить и сделать платным.
Айпад сейчас подключается к монитору через usb-c
Pаботает с несколькими важными оговорками:
- Интерфейс отображается в режиме дублирования экрана, экран планшета при этом не отключается.
- Разрешение основного интерфейса не настраивается и не подстраивается под монитор.
- Type-C есть только на iPad Pro и на других ленейках заменять его не торопятся.
В текущем виде это можно использовать разве что для презентации, речь шла в первую про полноценную работу.
Покупатели iPad Pro — очень лояльные и платежеспособные клиенты, зачем лишать их возможности купить еще девайс или несколько? Если уж они придумали обоснование не делать калькулятор, то как и почему не давать делать рабочую станцию из планшета они придумают.
Все вышесказанное не относится к развитию планшетов как трансформеров в подобие ноутбука, тут просто отличная возможность продать ужасную клавиатуру (Magic Keyboard 2, по цене бюджетного ноутбука), после которой захочется купить полноценный ноутбук.
Никаких проблем. Можно распознавать режим и брать денежку. В DEX некоторые программы уже так умеют, в частности, MS Office.
> экономя деньги
Все бывает, конечно…
другое дело, что ос начинает самообслуживаться на многоядрах более эффективно.
правда, начинаем упираться в теплопроводность и вывести тепло из центра становится всё сложней.
Только многоядерность не решает проблему энергопотребления.
Пока стремительно уменьшался техпроцесс было возможно увеличивать количество транзисторов без повышения энергопотребления (как раз это самая многоядерность). Сейчас с этим стало сложнее. Просто так увеличить количество ядер без вреда для энергопотребления уже не выйдет, а пихать в телефон процессор с TDP 100W никто не будет.
Когда уже перестанут оценивать десктопные процессоры по мобильному бенчу. Там и майковско-квалкомовский процессор в Surface рвал i5 и r5, но по итогу… Кхе.
Shadow of the Tomb Raider упирается в ГПУ. Он и древний AMD FX не нагружал сильно.
Когда уже перестанут оценивать десктопные процессоры по мобильному бенчу.
GB везде одинаковый — и на десктопе и на мобилках. Если ваш десктоп не может выступить быстрее мобилки, о чём это говорит?
Ну т.е. тупо запускается Clang с исходником и почему же он у вас медленнее работает?
Впрочем если не нравится GB — есть результаты SPEC 2006:
www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/4
www.anandtech.com/show/13392/the-iphone-xs-xs-max-review-unveiling-the-silicon-secrets/4
Там и майковско-квалкомовский процессор в Surface рвал i5 и r5
Давайте придерживаться фактов, а не фантазий.
Вот первый попавшийся тест SQ1 против i5-8500 @ 4.1GHz (процессор того же 2018г)
browser.geekbench.com/v5/cpu/compare/2923814?baseline=2930842
Не рвёт, но и выступает не плохо.
по итогу...
По итогу что?
Я вот пользуюсь Galaxy Book S на основе 8cx — ноут просто отличный, работает быстро, долго и не перегревается.
А если порассуждать? Давайте так — производительность ARM меньше производительности x86 (и x64, конечно) равной тактовой частоты.
ARM бывают разные. Какие конкретно вы имеете в виду и на чём основано данное суждение?
Гонка гигагерцев закончится довольно быстро.
Интел её проиграл AMD ещё в начале 2000-х :D
В сухом остатке явное преимущество x86/x64 в «числодробильных» задачах. И это преимущество «покупается» за невысокую энергоэффективность
Где-где преимущество, простите?
www.fujitsu.com/global/about/resources/news/press-releases/2019/1113-02.html
A64FX — 7nm, 48 (52) ядер, 3,3792 TFLOPS (в DP), ПСП 1TB/s, 180W(?)
Epyc 7742 — 7nm, 64 ядра, 2,3TFLOPS, ПСП 204.8GB/s, 225W
Даже свежий TR Pro 3995WX с TDP 280W не достанет до ARM.
Как мы видим у топовых x86 меньше производительность при большем количестве ядер (ядра медленнее), меньше ПСП, больше TDP.
По всем параметрам… грусть-печаль.
По всем параметрам… грусть-печаль.
Давайте так. Я не могу спорить с маркетологами. Как говорится «в рекламе вкусно показать можно что угодно». Но первое впечатление любого, кто садится за ARM после любого x86 (даже Atom'а не к ночи будь помянут) — это ощущение тормозной консоли. Все системные утилиты, рассчитанные на работу в однопоточном режиме выполняются сильно дольше привычного времени. Я не работал с «серверными» решениями. Есть такой, но у меня к нему доступа нет за ненадобностью — мне кросс-компиляция больше нравится. И в первую очередь ровно потому, что кросс-компиляция выполняется сильно быстрее, чем нативная. Потому мой собственный опыт и только. Однако, не думаю что Apple будет ставить в свои десктопы серверные ARM'овские решения на полсотни ядер. Но посмотрим.
Банальный пример — роутер с 2 ядра ARM не может забить гигабит кучей подключений, nat тормозит. x86 j1800 тянет гигабит на одном ядре, и вытянул бы еще немного. Частоты были одинаковыми.
Ядро linux вряд ли перепишут подьвсе особенности(если таковы имеются) arm.
Вообще сегодняшняя ситуация вокруг ARM до боли похожа на ситуацию с SPARK и SUN. Те тоже пытались подвинуть Intel как минимум на серверном рынке. Конечно, сейчас ARM сильно популярнее чем когда-то SPARK. Где сейчас тот SUN и тот SPARK? А очень похоже по ощущениям от работы с консолью.
И да, я не то что не против. Я за. Я жду цен. И имею (слабую) надежду на то, что какой-нить mac-mini с ARM появится у меня на столе. До тех пор любые разговоры это просто гадание на кофейной гуще. Я мои посты целиком и полностью основаны на собственном опыте работы с Linux на ARM (как 32-, так и 64-разрядных). Пока ощущение такое — жить можно, но только так. Большинство пользовательских задач (игры, видео, музыка, обработка видео) вполне себе выполнимы. А вот разработчиковские (та же компиляция) — одна сплошная боль. И вылечить эту боль может только очень серьезная многоядерность. Но и тут надо помнить про «корень из N» и весьма серьезное усложнение чипа. Потому повторюсь — попкорн запасен. А там посмотрим что за кино получится. Не удивлюсь ни комедии, ни триллеру.
ARM разработает отдельное ядро персонально для Apple? Что может сделать Apple для того чтоб в разы увеличить производительность?
Так у них уже производительность ядер на уровне ядер интела. Именно у процессоров от Apple — A12Z
Я мои посты целиком и полностью основаны на собственном опыте работы с Linux на ARM (как 32-, так и 64-разрядных).
Ещё раз, не те это процессоры
А вот разработчиковские (та же компиляция) — одна сплошная боль. И вылечить эту боль может только очень серьезная многоядерность.
Посмотрите на Developer Transition Kit. Там как бы и система и Xcode уже стоят. И люди берут и компилируют
А вот про «не те процессоры» я не понял. Упомянутый A12Z основан на ядре ARMv8-A. Вполне понятно чего от ждать просто ориентируясь на построенные на близкородственных ядрах AARM64. Разве нет?
Упомянутый A12Z основан на ядре ARMv8-A. Вполне понятно чего от ждать просто ориентируясь на построенные на близкородственных ядрах AARM64. Разве нет?
Эм, нет. Это же набор иструкций. Так можно и AMD и Intel сравнивать — а чего, они ж оба x86-64. Тут можно посмотреть сравнение с Snapdragon 855. По вашей логике, тоже ARMv8-A. А вот разница очень даже существенная. У Apple одна их самых быстрых (если не самая быстрая) реализаций — это факт, и это было видно еще несколько лет назад.
К слову поправьте если не прав, но полагаю что никто не может — та доступ к консоли сильно лучше спрятан чем в том же Android'е
Ну, прижелании доступ есть — джейлбрейк никто не отменял
Но попробуйте собрать сколько-нить серьезный проект нативно. В моем случае это обычно ядро Linux, gcc или что-то подобное (chromium, firefox). И тут выяснится что кросс-компиляция на Intel сильно быстрее нативной компиляции. Да и XCode пока работает в основном на Intel, хоть и делает код для ARM'а
Я же говорю, вот, выпустили уже Xcode для ARM. Но, к сожалению, у меня нет DTK, чтобы это протестировать. Разработчикам, которые его получили, тоже, по традиции, рекомендовано воздержаться от комментариев, но тесты ня ютубе уже есть — но, к сожалению, не компиляции, это да
Ну, а то что Apple может «вытягивать» из ARM максимум, так это хорошо. Но я сомневаюсь что на реальных задачах там будут «разы». Хотя… Вспоминая как вел себя ARM-v7 с 16-разрядной шиной памяти в сравнении с тем же ядром, но 32-разрядной шиной могу сказать что все возможно. Ждем. Пока просто ждем.
Еще сильнее я не понимаю «ааа, так он же быстрее из-за шин, кешей». Какая мне разница, из-за чего? Он быстрее, важно только это.
Шины и кеши — это мое. Это я должен понимать за счет чего достигается такая производительность и где ждать подводных камней таких решений (понимать границы применимости). Согласен, пользователю это не очень интересно (если вообще интересно). И в этом плане тот же браузер не всегда показателен. Страница для iPad и для десктопа могут оказаться очень разными, даже рекламой разной и по разному напичканными. Одно это может вносить существенные искажения в восприятие скорости работы. Потому давайте я соглашусь с любой позицией. Говорите ARM от Apple в однопоточном режиме быстрее Intel'а — ОК, пусть будет так. Говорите что у Apple самая быстрая реализация AArm64 — не вопрос. Время рассудит что тут правда, а что вымысел и подгон под требуемый ответ.
Насчёт страниц в браузере — я согласен с замечанием, что сайты могут быть разные, но это не мой случай. Я часто читаю форумы, и они открываются именно в десктопной версии. Кроме того, на iPad нет блокировщика рекламы, что, по идее, должно ещё сильнее тормозить браузер на нем. Но не тормозит.
И что это меняет? Будет в несколько раз медленнее?
Да, будет в несколько раз медленнее.
Вы знаете что такое микроархитектура?
Представляете, почему Goldmont+ медленнее в разы чем IceLake?
Это как? ARM разработает отдельное ядро персонально для Apple?
Они не используют ядра ARM. Как и AMD не использует ядер Интел. Apple лицензирует архитектуру и разрабатывает микроархитектуру самостоятельно.
Сейчас ядра Apple вдвое быстрее чем ядра от ARM.
В Apple ноутах будет ядро на 20-25% более быстрое чем A13. Это поднимет планку производительности в однопотоке для всей индустрии.
SPARK и SUN
SPARC
мои посты целиком и полностью основаны на собственном опыте работы с Linux на ARM (как 32-, так и 64-разрядных).
Ну т.е. ездите на Ладе Приоре, но рассужаете о каком нибудь Porsche, дескать, он точно ничем не лучше. Ясно, понятно.
Ну т.е. ездите на Ладе Приоре, но рассужаете о каком нибудь Porsche, дескать, он точно ничем не лучше. Ясно, понятно.
Может быть. А может быть просто не пытаюсь использовать карьерный Белаз для ежедневных поездок на работу через центр города-миллионника. И тем более не пытаюсь найти оправдания того для чего я этим мог бы заниматься. А межу поршом и приорой общего сильно больше чем кажется. И уж точно нельзя познать особенности реализация порша не зная как работает приора или любой ее импортный аналог (если на отечественные авто стойкая аллергия).
Поправка про SPARC засчитана. Виноват. Все остальное для меня требует пояснения. То что вы пишите или слишком умно и сильно опережает мои знания, или… ровно наоборот (буду политкорректен). Я не понял про Intel и AMD. История этих компаний слишком на слуху для того чтоб так безапеляционно заявлять что их роднит только набор инструкций и так было всегда. Да и методика зарабатывания денег компанией ARM мне представляется несколько по другому.
История этих компаний слишком на слуху для того чтоб так безапеляционно заявлять что их роднит только набор инструкций и так было всегда
Причём тут история компаний? «Так было всегда»? Я такого вообще не говорил.
Речь о том, что ядро Ryzen никак не связано с Intel Core кроме как по архитектуре. У компаний есть кросс-лицензионные соглашения, но AMD не лицензирует микроархитектуру ядра у Интел, и наоборот.
То что вы пишите или слишком умно и сильно опережает мои знания, или… ровно наоборот (буду политкорректен)
Как изволите, но мне не пришлось бы разжёвывать элементарные вещи,
если бы вы в них ориентировались. Расширяйте кругозор. Возможно, вам эта информация не нужна, но вы же делаете безапелляционные заявления вроде «производительность ARM меньше производительности x86 (и x64, конечно) равной тактовой частоты.», хотя даже не знаете какие бывают ARM и какую они имеют производительность.
Да и методика зарабатывания денег компанией ARM мне представляется несколько по другому.
Важно, не как вам представляется методика, а как это работает на самом деле.
О том, как работает ARM, написано в хорошо знакомом месте:
www.anandtech.com/show/10366/arm-built-on-cortex-license
www.anandtech.com/show/7112/the-arm-diaries-part-1-how-arms-business-model-works
Как изволите, но мне не пришлось бы разжёвывать элементарные вещи, если бы вы в них ориентировались. Расширяйте кругозор.
Хм… Понимаете какое дело. Мне, как человеку который уже не один десяток лет занимается адаптацией загрузчиков и ядра Linux под разные камни (включая те, на которых ни одно ни другое даже не поддерживается) безусловно стоит расширять кругозор. И конечно мне не надо объяснять элементарные вещи. Хотя не скрою — я очень люблю послушать как именно их объясняют. Очень много сразу становится понятно о человеке. Насколько глубоко он в теме, по каким «учебникам» учился. Потому позволю себе встречный совет вам: вечно расширять кругозор не получится. Мир меняется сильно быстрее, чем вы об этом успеваете даже прочесть. Потому выберите уже тему, в которой вам будет интересно и копайте вглубь. Нет ничего страшного в том, что не знаешь всего.
Мне, как человеку который уже не один десяток лет занимается адаптацией загрузчиков и ядра Linux под разные камни
Я, знаете ли тоже
То что вы адаптируете Линукс, ничего не говорит о ваших знаниях в области микроархитектур ARM. Тем более вы с чипами Apple не работаете и программы на них не запускаете. Кстати для iPhone тоже есть Линукс ядро. projectsandcastle.org
Мир меняется сильно быстрее, чем вы об этом успеваете даже прочесть.
Именно так. Несколько лет назад ваше утверждение, из-за которого появилась эта ветка, было валидным, а сейчас оно не соответствует действительности.
Вы в курсе про чайник Рассела? Надеюсь да, и тогда я жду продолжения. Меня настолько часто обвиняют в некомпетентности, что я даже сопротивляться не буду. Но, думаю, что если б хоть у кого-то был ARM достаточно производительный, чтоб потеснить современный Intel и об этом можно было бы писать не боясь судебных исков, то все бы давно гудели. А так быстрее, но со звёздочкой (на отдельных задачах). И именно понимание архитектуры и процессора как такового и системы в целом и позволяет мне предполагать с хорошей долей уверенности что таковое в принципе невозможно. Если конечно не сравнивать ультра современный ARM с допотопным Intel. Но тогда мой браслет на порядки производительные суперкомпьютеров прошлого. И да, напоминаю про чайник (и жду продолжения).
Напомню:
производительность ARM меньше производительности x86 (и x64, конечно) равной тактовой частоты.… В сухом остатке явное преимущество x86/x64 в «числодробильных» задачах.
Я вас не обвиняю в некомпетентности — я вашей работы не видел. Я просто говорю, что мир вокруг вас изменился, а вы старательно пытаетесь спрятаться за старой догмой «Интел — круче всех». Имеет место быть инерционность мышления.
то все бы давно гуделиТак все и гудят :) И именно потому Apple тратит миллиарды на смену архитектуры, хотя часть пользователей они потеряют.
А так быстрее, но со звёздочкой (на отдельных задачах)
У Интел в ноутах/десктопах осталась лишь одна «звёздочка» — широкий SIMD. В HPC даже её не осталось.
Кроме синтетики, применений AVX-512 на декстопе довольно мало.
Преимущество AVX2 закроет стоковое ядро ARM Matterhorn (2021г) с 256-битным SIMD. По некоторым косвенным данным у Apple Silicon уже в этом году может быть широкий SIMD (узнаем в сентябре). Айфон 12 покажет чего ждать от ноута.
И именно понимание архитектуры и процессора как такового и системы в целом и позволяет мне предполагать с хорошей долей уверенности что таковое в принципе невозможно.
*Зевая* Возьмите свежий айфон и погоняйте там код, если не верите тем, кто это уже сделал.
Лично я не настолько увлечён вопросом «В интернете кто-то неправ», чтобы делать это за вас :D
"Мы наш, мы новый мир построим" ©
Зевая Я подожду десктопа и проверю. Там и будет видно быстрее ли, энергоэффективнее ли, дешевле ли. А то сравнивать iPhone и десктопную машину все равно что сравнивать пончики с Айвазовским. Буквально недавно Microsoft пытались. Даже не для десктоп, а то ли планшет, то ли ноутбук. По ощущениям у них не получилось.
А тестировать каждую разрекламированную новинку у меня нет ни времени, ни денег, ни желания. Мне деньги не за это платят. К слову а вы не один из сотрудников того новостного портала на который ссылки шлете?
А про чайник все же почитайте. Зевая Вдумчиво.
Все системные утилиты, рассчитанные на работу в однопоточном режиме выполняются сильно дольше привычного времени.
Какая ОС, какой процессор?
Раз уж вы делаете вид что вы не маркетолог, предметно можете говорить?
У меня на 8сх нет такого ощущения каких-то тормозов.
Я не работал с «серверными» решениями.
И в первую очередь ровно потому, что кросс-компиляция выполняется сильно быстрее, чем нативная.
Откуда вы знаете, если вы не работали?
Знаете ли вы что то-же Clang, к примеру на телефоне Apple работает быстрее в однопотоке чем на самом топовом х86? Понятно что больших ядер там мало, т.е. в целом победит десктоп, но в ноуте будет 8 вместо двух.
Ось почти всегда Linux. Железо — встраиваемые железки с arm-v7a, arm-v8 (последнее время от Freescale). Это наша целевая платформа. Пробовал железки и от NVidia (для нас избыточны) и от более «приземленных» производителей (ST Microelectronics, Atmel). Да, выборка не очень презентативна в части производительности, но я и сравниваю их отзывчивость не с Xenon'ами. Скоре с Atom'ами и Celeron'ами. Что до «нет ощущения тормозов» — так на том что делаем мы тоже нет ощущения тормозов. Иначе бы железки наши не покупали. Не путайте пользовательский опыт и ощущения разработчика. Я знаю о своем изделии сильно больше, чем конечный пользователь. Так что верю — нет ощущения тормозов и славненько. Я буду очень рад оказаться не правым и пересмотреть свои взгляды. Ждем.
Clang, к примеру, на телефоне Apple я не запускал. У меня из Apple есть только macOs на хакинтоше. Потому действительно сказать ничего не могу. Но взялись писать — пишите. Что компилирует Clang на смартфоне и x86 (и который из них самый топовый, участвующий в сравнении)? Они производят один и тот же бинарь или разные? Где вообще описание данного теста?
Там ARM-v8 (64 бита), дай бог памяти 16 ядер и не помню сколько оперативы и тактовую частоту.
Кроме первого Graviton я так из головы и не могу назвать ничего серверного с 16 ядрами.
Graviton 1 построен на ядре A72 (оно далеко не серверное). Только вот текущий Graviton2 уже заметно быстрее чем первый (хотя и медленней серверных чипов х86). Серверные платформы от ARM выпускаются заметно позднее чем телефонные чипы. Оно и понятно — там серверные фишки да и тестируются такие чипы тщательнее.
>> Дело было год-полтора назад.
Ну да, точно Graviton значит.
A72 в 4 раза медленнее чем десктопное ядро Интел.
Graviton2 где-то в 2 раза медленнее в однопотоке, но компилировал бы он быстрее чем i7.
browser.geekbench.com/v5/cpu/compare/2124955?baseline=2853917
>> Что компилирует Clang на смартфоне и x86
Clang в GB5. Я лично Clang не собирал и не запускал под iOS (при джейле можно тупо из консоли запускать), но бенчмарк вполне правдоподобен.
GCC в SPEC2006. www.anandtech.com/show/14892/the-apple-iphone-11-pro-and-max-review/4
>> Они производят один и тот же бинарь или разные?
Один и тот же.
>> Где вообще описание данного теста?
Стр 12
www.geekbench.com/doc/geekbench5-cpu-workloads.pdf
Скопирую из отсюда (я могу писать только 1 раз в час)
Ширины шины данных, размер кешей. Другое дело, что есть серьезный вопрос поможет ли это в реальной жизни на реальных задачах, а не на чистой синтетике. И да, Intel и AMD можно (и нужно) сравнивать. Собственно все именно этим и занимаются.
Большой кэш с низкой латентность и высокой ассоциативностью не поможет в «реальных» задачах?
L1D 8-way / 128KB / 3 такта; L2$ 4MB 14-16 тактов у Apple
L1D 8-way / 32KB / 4-5 тактов; L2$ 256KB 12 тактов у Comet Lake.
Декодирование 7 инструкций за такт (A13), 6 ALU операций за такт, быстрый FPU тоже не помогут? Там и остальные блоки уровня state-of-art.
www.anandtech.com/show/13392/the-iphone-xs-xs-max-review-unveiling-the-silicon-secrets/3
Кстати новое ARM-овское ядро Cortex-X1 (которое пока никто не показал) может запускать из МОП кэша 8 макроопераций за такт. У Интел всего 6 МОП-ов за такт.
www.anandtech.com/show/15813/arm-cortex-a78-cortex-x1-cpu-ip-diverging/3
Про остальное. Ну хорошо, будем считать что я согласился. Мне спорить с редакторами www.anandtech.com совсем не хочется. А не верить им безоговорочно — это мое право. Как и право сомневаться в кроссплатформенных тестах. Даже подсчет хешей или расcчет числа Pi (казалось бы чисто вычислительные задачи) не дают четкого результата.
Потому просто повторю основную идею — ждем. Ждем цен. Ждем реальных оценок (что бы это не значило). Будет любопытно если десктопный ARM от Apple окажется быстрее серверного 1,5-годичной давности. Впрочем, сильно такому раскладу я не удивлюсь.
А, ну и еще, помимо этих вопросов есть вопрос цены и по всему выходит что Apple сильно будет экономить на своем силиконе. И это прям немаловажный фактор.
А еще появляются многоядерные системы, позволяющие параллелить и базовые системные функции.
Скорее всего это и есть бустер, который будет использовать Apple.
Более того, Apple не покупает дорогущие чипы Xeon, используемые в миллионах облачных серверов – а их доля в прибыли Intel постоянно растёт.
А как же Mac Pro?
конец эры Wintel…на ≈10% ПК (и вычтем Mac Pro, как выше сказали)
И при чём тут Wintel?
Неприятно, но на апокалипсис не тянет.
И Windows на армах была уже лет 5 назад. Но вау-эффекта не последовало.
Если отбросить в сторону все громогласные рассуждения автора о технологическом превосходстве Apple над Microsoft и ARM над AMD64 (причем оба тезиса весьма спорны)ну про Apple vs microsoft можно долго холиварить (хотя индустрия чаще следует за первыми чем за вторыми), а вот то что ARM чипы энергоэффективнее и дешевле в производстве чем их x64 аналоги это скорее факт чем спекуляция. А еще у apple в ближайшем будущем будут 5 nm чипы, а ведь в ноутбуках решающий критерий именно энергоэффективность.
то в сухом остатке мы имеем уменьшение доли интеля на десктопах на 10%.дайте apple разгуляться в верхнем сегменте и они и в средний полезут.
И Windows на армах была уже лет 5 назад. Но вау-эффекта не последовало.если бы win 8 RT был тем, что от него ожидали — windows 7 с адаптированным под тач интерфейсом, последовало бы. На деле же это была планшетная версия провальной win phone.
(хотя индустрия чаще следует за первыми чем за вторыми)Зато первые часто следуют за вторыми. То плоский дизайн позаимствуют, то разделение экрана, то живые плитки…
- 2000: MS представили windows mobile. Занял нишу коммуникаторов и прожил ровно до релиза айфона
- 2001: MS представили первый планшетный компьютер. Провал
- 2007: apple представили айфон. Спустя пару лет практически все мобильники копируют дизайн айфона
- 2010: apple представили ipad, положив начало «планшетным компьютерам»
- 2010: MS представили windows phone как ответ айфону. Провал, который добил nokia.
- 2011: apple представили siri. В течение последующих лет подобные решения появились и у конкурентов
- 2012: MS представили свой ответ ipad'у — планшет microsoft surface. Провал
- 2015: apple выпускает ноутбук с одним лишь thunderbolt интерфейсом, и производители постепенно переходят на него
- 2016: apple удалили из телефона jack. Конкуренты перенимают
- 2020: apple объявила о переходе на ARM (---мы здесь---)
Итого все крупные «мувы» apple оказываются успешными, а все крупные мувы MS — нет. Что там еще есть у MS? Azure? Я бы поставил на AWS. Office? Будущее за google docs. Итого MS лидирует только в некоторых крайне нишевых областях (типа hololens для медицины) и пытается сохранить монополию там, где может.
Офис — почему гугл доки, а не Office 365? Только потому что вы ими пользуетесь? Офис это гораздо больше собственно прогаммы майкрософт офис. Это часть довольно большого пакета по оборудованю коммерческих рабочих мест. С календарями, почтовыми серверами, лучшим почтовым клиентом на рынке с майкрософт, всякими тимсами, бизнес-мессенджерами, звонками и т.д. и т.п., очень много всего. Ближайший конкурент в этой области — гугл с помянутыми гуглодоками и г-сьютом. Однако Майкрософт прямо сейчас продает чуть не на порядок больше этих продуктов чем гугл. И объективно выигрывает по размеру пакета продуктового.
Azure? Почему вы делаете на что-то ставку? Это как делать ставку на ios при живом андроиде, да, у AWS больше рынка, на у Azure рынка все еще более чем дохрена, настолько дохрена, что майкрософт треть своих доходов оттуда получает.
И категория девайсов у них в общем не такая безнадежная как казалось бы, энтерпрайзы любят и покупают серфейсы (не так как макбуки, но все же), хбокс гейм пасс недавно отчитывался о десяти миллионах активных подписчиков (где там сони с ее эксклюзивами?), консольки прекрасно продаются и новые будут продаваться, десяток студий выпускает хитовые игры и продает их.
И это все только по верхам.
У эппл структура доходов далеко не такая безоблачная как у майкрософт.
на у Azure рынка все еще более чем дохрена… линуксов. В этом-то и проблема. Просто обязан «в ажуре» быть супербыстрый, супердешевый, с уникальными опциями Windows Server… но ничего этого там нет :-)
Более того, за ту же цену — у AWS и Google виндовые инстансы быстрее, и лучше сбалансированы.
С календарями, почтовыми серверами, лучшим почтовым клиентом на рынкеС просто таки отличными календарями, которые не умеют сами синхронизироваться с вашими календарями в смартфоне.
С просто таки потрясающими клиентами, которые почту умеют забирать только с серверов микрософта.
всякими тимсами, бизнес-мессенджерами, звонкамиэто (наконец-то) один продукт, или их все так же четыре? А браузерная версия уже научилась в звонки, как это умеет гугломит? А без облака микрософта это счастье уже работоспособно, или все так же «пакетная сделка»?
Наконец, когда можно будет из тимсов позвонить в скайп (не бизнес, этот вообще не скайп а lynx)?
Офис — почему гугл доки, а не Office 365?У гугла — доступно все россыпью в любых комбинациях, интегрируется со всем подряд, полностью операбельно со смартфона, и требует только браузер.
Что там у нас с микрософт офис 365? Поставьте себе кучу десктопного шлака, который требует доменные аккаунты в облаке, чтобы можно было просто позвонить? :-)
Я в целом не сравнением экосистем тут занимаюсь. Вкус, цвет, фломастеры, плюсы\минусы, вот это все. Я сам плотно (вплоть до хромбука с энтерпрайз энролментом и гугл пикселя с ним же) в гугловой экосистеме сижу и проблем там более чем дохрена. Уверен что у майкрософта их тоже предостаточно. Однако факты есть факты — этого рынка у майкрософта много, больше чем у гугла чуть не на порядок, по той статистике, которую я видел, продукт делается и продается.
И почему вдруг линуксы стали проблемой майкрософта? Они якобы были ей во времена балмера, а сейчас линуксы майкрософту лучшие друзья, потому что майкрософт зарабатывает на них гору денег. Майкрософт топ-1 корпорация по контрибьюшенам в опен-сурс. Скоро к гитхабу прикрутит кнопку «задеплоить в ажур» и заживем.
И почему вдруг линуксы стали проблемой майкрософта?Не-не, вы не уловили посыл. Я о другом — что в облаке микрософта нет вкусных предложений по продуктам… микрософт!
Вкусных — это significantly дешевле и производительнее за ту же комбинацию, чем у конкурентов. Хотя (в отличие от всех остальных) лицензия на Windows для микрософта не стоит ничего.
Вместо своих собственных систем, в «ажуре» правит бал почему-то тот самый Linux, с которым микрософт уже 20 лет безуспешно борется.
И вот это и есть повод позлословить :-)
Потому что не можешь победить — возглавь.
Майкрософту нет никакого смысла продавать у себя windows дешевле чем делают это конкуренты, он так только отношения с партнерами попротит, потому что конкуренты, внезапно, тоже покупают windows у майкрософт.
Майкрософту также нет смысла не давать линукс тем, кому нужен линукс. Как-то так зарабатываются деньги. А вот эти войны платформ и прочее все — кому оно надо?
Windows перестал быть критической частью и краеугольным камнем для майкрософт. Зачем искусственно ограничивать себя одной платформой, если можно зарабатывать деньги на всех?
Потому что не можешь победить — возглавь.Это у них тоже не получается. Мелкомягкие свои собственные продукты толком «возглавить» не могут, непрерывно сами себя побеждают во внутренней борьбе…
Примеры — тот же скайп. Его переписали с нуля (!!!) но так и не научили интегрироваться с другим скайпом. Который «форбизнес». Много лет пилят свои Тимсы, которые тоже не умеют в интеграцию со скайпом. Тут-то им кто мешает делать по уму и опенсорцно?
Windows перестал быть критической частью и краеугольным камнем для майкрософт.Жаль только микрософт об этом не в курсе :-)
Убери вот прямо сейчас «окошки» — и кем станет микрософт?
Мелкий вендор по производству устаревшего в хлам офиса под макось? Даже офис365 без десктопного аутглюка с десктопным экселем мало приспособлен к разумной деятельности.
Еще более мелкий вендор дотнета, с полноценной вижуалстудией только под мак? А под маком там зачем дотнет, десктопные приложения там банально не в чем делать, WPF же :-)
Про мобилки я и не говорю, совсем мелко.
Ну, еще кое-что из кровоого энтерпрайза можно запустить на линуксе, как MS SQL Server, но вот Dynamics/Navision — уже нет :-)
Зачем искусственно ограничивать себя одной платформой, если можно зарабатывать деньги на всех?Затем, что «на всех» у них не получается. А вот позиции собственной платформы — уже таковы, что «то ли закопать, то ли погодить».
Нет, не потому что это я — динозавр-хейтер «мастдая» с четвертьвековым стажем. А потому что нет (по факту) вкусных предложений.
Вместо бешеного распространения во все стороны, как это было во времена Билла Гейтса и раннего Баллмера — окучивание своих делянок, которые постоянно усыхают.
Да банально вспомните повсеместное втюхивание Висты — и не остановили никакие опасения «испортить отношения». Или делаешь как в Редмонде скажут — или шиш тебе а не скидка на лицензию Уиндоусь!!!
Но времена меняются, и если микрософт не прекратит окукливаться — то скоро угроза «не дадим скидку на уиндоусь» будет восприниматься как «напугал кота сосисками».
Исчезнет windows — будут продавать линукс, иксбоксы с игрулями, железяки какие-никакие по энтерпрайзам и еще немножко онлайновых продуктов. Все у них будет хорошо, не переживайте так.
Зачем же вы старое поминаете все время-то?Потому что я вижу у микрософта много слов, но мало дела. И постоянные попытки выдать нужду за добродетель.
усиралась бы сейчас до последнего безуспешно пытаясь завести облако без линуксаА они так и начинали. Просто не смогли…
Шутка сказать, по эквивалентным попугаям цена окошечного инстанса вдвое выше, фактическая «мощь» (благодаря дефендеру и прочим неотключаемым идиотизмам) ниже заявленной эдак на 20% по CPU и совсем ужас по диску, по функционалу — печаль-тоска.
Ну вот пример из свеженького. Беру очередной инстанс под линуксом, он а) сразу готов к работе, б) свеженький, и в) все репозитории настроены, ставь нужный софт одной (длинной, но) командой.
Рядом беру свежий инстанс окошек, и начинаааееетсяяя…
1. Первых минут 20 — это все тормозит, стоит колом, и тратит мои деньги. Потому что апдейтер вдруг обнаружил, что его давно не запускали (я же беру готовый образ, его что — нельзя держать up-to-date???) и жутко занят, а дефендер мужественно проверяет скачанное апдейтером (левый караман не доверяет правому?), ну и свое докачивает.
2. Почему я должен создавать себе юзера, отличного от «администратор», руками? Каменный век…
3. Наконец попив кофе — я захожу и… правильно, чистенький. Вперед, выбирай роль серверу и доставляй компоненты. Почему я не могу это сделать на этапе выбора виртуалки? «Мне не нужно чтобы быстрее» (с) прапорщик Советской Армии…
4. Как в далеком 1995 году, первое что я делаю — так это ставлю нормальный браузер… ну, потому что «режим расширенной защиты» ослика включен по умолчанию и требует та-дам! рестарт, чтобы его убрать. Ну или можно создать custom trust level, и на него переключиться, это больше кликов, но зато без такой чуши.
И в тот момент, когда линуксовая подложка уже крутит мои микросервисы в контейнерах с оркестрациями, а графана бодро показывает состояние этого ужастика, в окошках заканчивается установка дотнет фреймворка…
:-)
И это я оставил за скобками тот чудесный факт, что окошки еще и диск требуют в разы больше, и очень чувствительны к его скорости. Как будто я не парочку рест-апи сервисов запускаю, а участвую в майнинге биткойна, хехе.
Ну, с такими-то результатами — неудивительно что 90% облака это богомерзкий Linux :-)
Причем ладно бы что-то менялось, а то этот маразм одинаков во всех Windows Server, начиная аж с 2008 года, и только становится хуже…
«Да ну его нафиг, дотнет кора прекрасно запускается в докере, ставь линукс с поцгресом!!!» и вот оно, «для всех одинаково».
Меня же интересует — как получить Windows хотя бы сравнимый с опенсорцем, хехе. Но Наделле это неинтересно. Раз уж вынужден пользовать «окна» — терпи и матерись!!!
:-)
Windows сравнимый с опенсорсом получить не выйдет, как и опенсорс сравнимый с виндоус. Цели, задачи, фломастеры, объективные и субъективные плюсы-минусы вот это все.
И эти сказки про
Вы почему-то ставите телегу впереди лошади — ой как хорошо что
А пользователям уиндоусь какая с этого радость? Мы-то с вами сидим с окаменелостями эпохи динозавров!
Если бы микрософт еще пять и более тому лет назад подсуетилась, то перейти на армы было бы раз плюнуть. И к слову, это же заставило бы шевелиться и синих, а то забронзовели. Но по факту — снова сидим и ждем у моря погоды, когда же на армах появится нативный офис…
Зато микрософтовцы продолжают обещать нам давать обещания :-)
Если бы микрософт еще пять и более тому лет назад подсуетилась, то перейти на армы было бы раз плюнуть
вообще это тем более смешно, если вспомнить, что НТ4 была мультиплатформенная — я копал исходники — и сборки были под MIPS, Alpha, Itanium :-) Куда же все пропало? 0))) Видимо, это связано с двумя факторами — практически полной победой x86 архитектуры на десктопах и серверах, а еще тем, что винда все больше и больше затачивалась на костыле-архитектуру x86 и сложностью поддержки multiarch (ага, скажите обе этом линуксу, который можно уже в каждой кофеварке встретить).
НТ4 была мультиплатформенная… Куда же все пропало?Пропала не ось, а тулчейн.
Это такой своеобразный привет от команды вижуалстудии, когда они изобрели свой сишный рантайм, отличный от системной msvcrt.dll.
Я еще помню те времена, когда вдруг общесистемную библиотеку стало нельзя использовать, зачем-то. :-)
а гуглу и вовсе их еще догонять и догонятьА это сейчас смешно было, да.
Вот например, у меня есть софт который хочет AWS S3. Что мне делать в ажуре и в гугельклауде? Ответы между прочим разные.
У гугля — «прочтите хаутушку как включить, апи тот же».
А у микрософт? Читаем MSDN:
Over the years, due to the wide adoption of Amazon S3, the S3 API has become the de facto standard interface for almost all storage providers. These S3-compatible competing service providers use the standard programming interface to help customers migrate and to enable customers to write cloud-agnostic solutions.
Customers use the S3 API to connect to many S3-compatible storage solutions such as Google storage, OpenStack, RiakCS, Cassandra, AliYun, and others. Currently, Azure Storage does not natively support the S3 API.
Ставьте софт третьих поставщиков, или переписывайте.
Да уж, с таким подходом — всем остальным еще догонять и догонять :-)
Я говорю про сухие цифры, а не про вот это все.


ну, я не удивлюсь, если по структуре дохода — большинство клиентов ажура — крупные корпораты или госы (или окологосы). А гуглом пользуются хипстОры, которых попросту столько не набирается именно в денежном отношении. С другой стороны — именно гуголь дает рост 64%, так что у них все впереди, но это может быть эффектом низкой базы.
Касательно офисных пакетов… ну, вообще очень интересный разговор. Учитывая, что тот же офис доминирует в оффлайне.
С просто таки отличными календарями, которые не умеют сами синхронизироваться с вашими календарями в смартфоне.
С просто таки потрясающими клиентами, которые почту умеют забирать только с серверов микрософта.
И как же это у меня Outlook работает с G Suite-аккаунтами и mail.ru?
Каким образом у меня календарь рабочий из Office365 спокойно синхронизируется с андроид-смартфоном (и с macOS)?
И как же это у меня Outlook работает с G Suite-аккаунтами и mail.ru?Элементарно — вы не снимаете почту в режиме 24/7. Иначе бы знали, как именно мобильный Аутглюк забирает почту с гугла, хехе. Через сервера микрософта, внезапно.
Ну, просто потому, что «мейлру» не будет вам присылать пуш-нотификации в ваш айфон, ведь ему об этом не сообщили.
А светить все личные и рабочие адреса одному (не самому надежному, скажем прямо) провайдеру — оно такое. Так что мой внутренний параноик заставил меня поставить опенсорцный K-12 для случаев «я не в офисе».
А то, что десктопный Аутглюк (не тот который в браузере!) пока еще умеет в IMAP4 — это недоработка :-)
2010: apple представили ipad, положив начало «планшетным компьютерам»
2012: MS представили свой ответ ipad'у — планшет microsoft surface. Провал
2015 год — apple начинает копировать Surface Pro. какой-то странный провал.
2010: MS представили windows phone как ответ айфону. Провал, который добил nokia.
2013 год — apple копирует плоский дизайн.
1019 год — аппл копирует тёмную тему
2020 год — apple копирует живые плитки.
2020: apple объявила о переходе на ARM (---мы здесь---)
Windows 10 Arm существует уже 3 года.
2015 год — МС доделала универсальную платформу разработки для различных формфакторов под виндой.
2018? год — аппл анонсирует способ переноса ios приложениё на мак
2015 год — apple начинает копировать Surface Pro. какой-то странный провал.у вас очень странное понимание «копирования». Если вы когда-то пользовались планшетным гибридом на win 8 вы бы знали, насколько убогой была поддержка экранной клавиатуры — пользоваться этим чудом без подключенной физической было невозможно. Стилус тоже — MS добавить добавили, а что с ним делать не придумали. Так же как и samsung с их линейкой note.
2013 год — apple копирует плоский дизайн.я бы назвал дизайн windows phone не «плоским», а «примитивным». «Плоский» появился скорее в андроиде. Впрочем, новшеством не являлся нигде.
1019 год — аппл копирует тёмную тему
2020 год — apple копирует живые плитки.
System-wide темную тему первыми ввели именно apple. Черный цвет оформления элементов интерфейса не является «темной темой» если приложения его не подхватывают.
«Живые плитки» сплагиачены из виджетов андроида, которые сплагиачены с виджетов в macos.
Windows 10 Arm существует уже 3 года.и не умеет запускать x64 прложениия, т.е. переход с win 10 на её arm версию займет лет 5
Стилус тоже — MS добавить добавили, а что с ним делать не придумали.Они так придумали, что даже сами не стали этим пользоваться. Предполагалось, что будет отдельный класс приложений для ввода световым пером, для чего в WinAPI накрутили всякого разного… но вот индустрия не оценила.
samsung с их линейкой note.Тут кстати намного лучше. Просто модный аксессуар для «порисовать палкой по экрану», а не «новый революционный способ ввода».
дизайн windows phone не «плоским», а «примитивным»… и это даже не учитывая тот факт, что важность дизайна сильно переоценена.
И да, дизайн окошек в динамике — это что-то с чем-то.
Когда компы были большими, и еле тянули простейшую графику — микрософт продвигала свой 3d look, с анимациями и темами (Win95). Когда же компы стали мощными, и стало можно наворачивать эффекты любой сложности — скатились в примитивизм.
и не умеет запускать x64 приложения… поэтому микрософт предлагает в 2020 году использовать 32битный офис в эмуляторе :-)
Что отдельно неимоверно доставляет, да… пересобрать под AArch64 — совсем никогда такого не слышали ©
System-wide темную тему первыми ввели именно apple.вы не правы, она изначально появилась в виндофонах, именно system-wide и потом переехала в windows 10 в 2015 году.
Если вы когда-то пользовались планшетным гибридом на win 8 вы бы знали, насколько убогой была поддержка экранной клавиатурыпробовал. Клавиатура была уж точно не хуже, чем у ipad в то же самое время. Но самым удачным Surface оказался Surface Pro 3, именно после его успеха эппл задумала Pro версию iPad и развернулась в сторону 2-в-1.
Стилус тоже — MS добавить добавили, а что с ним делать не придумали.ровно то же самое, что и в iPad. Хотя я не знаю, в ipad уже можно в любое поле текстовый ввод делать?
(смеется) а видели ли вы Windows 3.1?System-wide темную тему первыми ввели именно appleвы не правы, она изначально появилась в виндофонах

Темные темы 20-30 лет назад были по-моему у всех, считалось хорошим тоном — поддерживать темную тему повсеместно. Порносайты имеют черный фон именно с тех времен, когда все и так было черным…
А у вас — прямо таки дискуссия, кто у кого скопировал :-)
вы не правы, она изначально появилась в виндофонах, именно system-wide и потом переехала в windows 10 в 2015 году.«system-wide» значит «не только элементы оформления ОС, но и API для приложений»
пробовал. Клавиатура была уж точно не хуже, чем у ipad в то же самое времяона как минимум имела привычку всплывать поверх поля, в которое вводился текст, так что нет, насчет «не хуже» не соглашусь.
ровно то же самое, что и в iPadпод ipad уже было достаточно много графических редакторов, эппл лишь переосмыслили 3rdparty стилусы под собственное устройство.
Хотя я не знаю, в ipad уже можно в любое поле текстовый ввод делать?в новой операционке обещали добавить
«system-wide» значит «не только элементы оформления ОС, но и API для приложений»Абсолютно с вами согласен. До сих пор не хватает той магии, когда меняешь акцентный цвет в системе, его подхватывают все (ну почти) приложения и у тебя создаётся впечатление нового телефона.
под ipad уже было достаточно много графических редакторов, эппл лишь переосмыслили 3rdparty стилусы под собственное устройство.И для винды есть.
в бете новой операционки можно.Молодцы, продолжают копировать хорошие решения у других.
Молодцы, продолжают копировать хорошие решения у других.и у кого они это скопировали? Интересует именно возможность рукописного ввода текста в «любое текстовое поле» а не в специально отведенном квадратике всплывающей клавиатуры
если бы win 8 RT был тем, что от него ожидали — windows 7 с адаптированным под тач интерфейсом, последовало бы. На деле же это была планшетная версия провальной win phone.
Вы какие-то удивительные вещи рассказываете.
Вот были Lenovo Yoga 11 (ARM) и Yoga 11s (Intel x86).
Одинаковый форм-фактор, одинаковый плиточный интерфейс, одинаковые MS Word и MS Excel.
Только на Yoga 11s можно было поставить с любой флешки или по сети любой софт, хоть GNU, хоть купленный (естественно), а на Yoga 11 только из «магазина» бесполезные приблуды. Т.е. нужно было его как-то рутовать, чтобы какой-то OpenSource софт запустить (на Windows CE было колоссальное количество софта портировано).
Т.е. провал был в том, что человек покупает вроде бы «взрослый» ноутбук, а получает девайс менее функциональный, чем windows ce.
What makes Anbox different from other projects like Shashlik or Genimobile?
Projects like Shashlik or Genimobile use an emulator to run the Android environment. The emulator creates an entire emulated system which has its own kernel etc whereas Anbox runs the Android system under the same kernel as the host operating system does. No emulation layer like QEMU is necessary. Everything runs directly on the hardware. This approach also allows a much better integration with the host operating system.
У них же — про то как у Chromebook'ов
Is there any relationship to Google's effort to bring Android applications to Chrome OS?
Google is implementing support in Chrome OS for Android applications in a very similar way as we do. Both approaches are quite similar as both put Android into a lightweight system container based on Linux namespaces and keep a small bridge to allow communication with the host system.
In contrast to Google's implementation, Anbox doesn't allow any direct access to hardware devices. For example it bridges Open GL ES to the host. In Chrome OS the container gets access to the host kernel side of the graphic subsystem to allow fast rendering. In our case, we decided against this to keep an easy way to port Anbox to different platforms. All a host operating system needs to provide is a Open GL / Open GL ES compatible driver to provide proper integration with the graphics subsystem. Other hardware devices like WiFi or Bluetooth will be abstracted in the future via a dedicated APIs between the container and the host.
Хорошо, если ваше не такое
Добавляет ли эта галочка какую-либо эмуляцию таких случаев? При установке этой галочки проверяется ли приложение на присутствие каких-либо действий, которые без тач-скрина сделать проблематично? Или всё это сугубо на вашей совести?
Повернуть экран приложение не может, его поворачивает система, программист максимум может заблокировать поворот экрана или разрешить лишь какие то определенные позиции, но опять же. Для айпада даже это сделать нельзя, т.е. у вас никак не получится так что приложение будет повернутым, на экране монитора в DTK или будущих Arm маках.
Как это будет работать можно посмотреть на примере Big Sur т.к. в нем уже многие приложения уже запускаются в таком режиме. Или просто подрубить мышку к айпаду по USB, можно все пощупать и посмотреть.
Но самое классное что ничего перекомпилировать не надо, на маках будут запускаться iPad версии приложений.
Можно ли повернуть в лендскейп приложение — на iPhone я точно такое делал, за айпад не помню.
Вот что пишут про ios13 code.likeagirl.io/xcode-how-to-force-a-view-into-landscape-mode-in-ios-13-15340978e3f4
надо не поворот айпада инециировать, а интерфес приложения поворачивать. т.е. DeviceOrientation отдельно InterfaceOrientation отдельно
Весь смысл в том, что для обеспечения совместимости можно вообще ничего не делать — ни пересобирать, ни переписывать. Архитектура и там и там одна, Apple позаботится, чтобы были все нужные iOSные библиотеки. Бери и запускай.
Повернуть экран приложение не может
Угу, то то у меня simply piano даже при заблокированном повороте экрана на портретный все равно в ландшафтном открывается.
Оно вроде все ничего, но Apple явно объединяет экосистему вместе с этим переходом и вот это уже совсем другая история с гораздо более обширными последствиями.
Доля компьютеров, в привычном их понимании, сокращается и вытесняется мобильными устройствами, а десктопы по продажам сильно проигрывают ноутбукам.
На 2019 год разница по продажам десктопов против лэптопов почти 50% в пользу последних (88.4 миллиона против 166 миллионов).
По мобильным платформам у Apple достаточно большой кусок — iOS держит чуть меньше четверти глобального рынка смартфонов и больше половины рынка планшетов (данные отсюда).
Больше половины устройств по трафику в мире — это смартфоны.
Да, у Эппл только порядка 10% рынка лэптопов, но у нее есть еще четверть рынка мобильных устройств и через это объединение они несут фактически единую программно-аппаратную платформу на гигантский объем устройств, который на данный момент составляет немного больше 10% от количества всех устройств впринципе.
Такой доли устройств на одной программно-аппаратной платформе в руках одной компании в новейшей истории никогда небыло, по крайней мере я подобного не знаю и данных об этом не находил (если такое было — напишите пожалуйста).
Apple известны сильной экосистемой, которая действительно хорошо работает между своими устройствами. Если добавить в это более долгую жизнь ноутбуков (а это то, на что так давила на презентациях Microsoft со своими Surface на ARM), переносимость программ, привлекательную для программистов и очень четкую, хоть и не такую привлекательную, платформу для продажи софта и сервисов то в итоге получается именно то, к чему шли многие компании и в первую очередь Microsoft, но так и не дошли — единая действительно нормально работающиая платформа для всего и размытие границ между типами устройств.
Если присыпать это тем, что ноуты на новой архитектуре будут обладать лучшими пользовательскими свойствами в плане автономности и достаточной мощностью (что уже не вопрос, т.к. iPad Pro с точки зрения вычислительной мощности очень и очень хорошие машинки, более чем закрывающие потребности рядового пользователя и им не хватает по сути только полноценной ОС и программ с десктопа с привычным интерфейсом, но это как раз то, что решается прямо сейчас) — то это приведет еще и к расширению доли лэптопов, а сама платформа рискует стать еще и самой удобной и, главное, выгодной для разработки и продажи софта из существующих, которая стянет на себя еще большее количество разработчиков.
И вот тут все станет совсем интересно.
Тут некоторые товарищи утверждают, что цена на яблоки велика лишь для относительно бедных стран вроде России, а в богатых все ОК. Но взгляните беспристрастно. Устройства на Android прекрасно продаются по всему миру, а не только в нищей Африке. И всегда будут продаваться.
Не грозит ничего «Винтелу», кроме небольшого падения объемов продаж.
То есть по отдельности да, они в меньшенстве, но в своей нише универсальных пользовательских платформ они, судя по всему, будут лидировать.
Платформа «для всего» за конские деньги
Со стороны пользователя это не такие уж и конские деньги, посмотрите на это с точки зрения рынка того же США.
iPhone SE + iPad Pro обойдутся примерно в 90 долларов в месяц в США. MacBook Air добавит еще около 90 долларов. Средний доход в час — чуть больше 24 долларов. То есть стоимость владения подобным комплектом в месяц меньше одного рабочего дня, даже если взять все три устройства. И оно, скорее всего, будет «просто работать», как это обычно бывает у Apple.
Фоточки будут сниматься, браузер открываться, FaceTime звонить, игрушки из магазина играться, AirPods подключаться и т.д.
И главное — не надо будет напрягать мозг и учить каждую платформу по-отдельности, что на компьютере одна программа, на планшете другая, на телефоне третяя для одной и той же задачи, приложения везде будут одни и те же. С точки зрения обычного пользователя — идеальная ситуация.
Даже малообразованное население нищих стран очевидно вполне справляется с другими платформами. И фоточки у них снимаются, и браузер открывается, игрушки играются и т.п.
Поэтому нет, судьба Apple быть нишевым продуктом для богатых буратин.
врядли кто-то будет делать аппаратную модульную платформу, соединяющуюю достоинства всех — x86\x64 & ARM & GPU. Что-то вроде «мини cloud с разным железом и своим инстансом на каждом железе» в ноутбуке и коммуникациями между ними «по оптике».
Предсказатели: Это конец эры Винтел
ARM идет на сервера.
Предсказатели: Это конец эры x86 на серверах
Эппл переводит лептопы на АРМ
Предсказатели: Это конец эры Винтел
… В конечном итоге, после перехода Mac на ARM есть шанс получить наконец-то рабочий вариант Samsung DEX от Apple.
Идея хороша с точки зрения попробовать полноценную MAC OS для всех пользователей хотя бы iPAD PRO а может и топовых iPhone. А это может подстегнуть продажи ПК. Просто воткнул кабель и работаешь с монитором и клавиатурой от например той-же клавиатурой от iPAD PRO который может стать билетом в мир MAC OS.
На минуточку — x86 это не только Майкрософт и Интел, это и АМД, и Нвидиа, и просто тонны софта и разработчиков. Но ещё больше всего этого в WIntel-платформе пользователей. Я ближайшие лет пять не побегу за Виндой на АРМе. Сколько пользователей так сделает? Я думаю не меньше 80%.
Так что, всё это трёп. Эппл менят процессоры как перчатки и плохо от этого только их пользователям.
То есть, некая компания, с долей 10% ПК всего мира, заставит, как написано в статье Майкрософт оптимизировать Виндовс на ARM?
Ну, на самом деле Microsoft над этим работает уже почти десятилетие, а может даже и побольше. Появление еще одной платформы, тем более весьма сильной, вполне может ее подстегнуть.
x86 это не только Майкрософт и Интел, это и АМД, и Нвидиа,
Microsoft — это не только x86, Windows за свою историю поддерживала множество архитектур, а ARM поддерживает и сейчас.
Nvidia — это не х86, а спциализированные ускорители и свои ARM-based платформы — Tegra, Jetson и т.д.
AMD — это не только x86 процессоры, но специализированные ускорители, и Operton A Series на ARM. Проект старый, но какой-никакой опыт у них есть.
Но ещё больше всего этого в WIntel-платформе пользователей
По количеству пользователей Wintel давно проигрывает ARM-ам, потому что там Android/iOS. Да, не для профессионального применения, а для того, чтобы котиков в интернетах смотреть и в игрушки простенькие играть, но вопрос лишь в том, где можно больше заработать.
Я ближайшие лет пять не побегу за Виндой на АРМе. Сколько пользователей так сделает? Я думаю не меньше 80%.
Зря вы так думаете, 80% даже не рядом, ситуация уже далеко не в пользу классических компьютеров, цифры прямо об этом говорят.
На бедных рынка доля смартфонов еще выше, в Индии к примеру 67% смартфонов против 31.6% классических компьютеров. Даже в США у 51% есть планшеты, при том что обычные компьютеры есть у 74%.
Люди уже привыкли к плашнетам и мобильникам, к их софту и экосистеме. Они и будут покупать себе «большой удобный планшет с клавиатурой», где работают привычные им программы.
ARM на компьютерах и ноутбуках с Windows мы еще не скоро увидим.
Всмысле нескоро, если Samsung Galaxybook S, Lenovo Yoga 5G и Microsoft Surface Pro X уже существуют?
По производительности да, далековато от топовых текущего года. А в плане автономности далеко впереди.
Вот только с производительностью не все так просто.
Если опираться на данные PassMark (ничего более всеобъемлющего я к сожалению не нашел), самые мощные ARM камни сейчас в iPad Pro — около 19 тысяч попугаев.
Компьютер, с которого я сейчас это пишу (и которого мне хватает более чем, чтобы крутить основную систему и windows в KVM для игр), на базе старенького E5-4650L, набирает порядка 13 тысяч. Мой ноутбук (MacBook Pro 13 Early 2015), который еще вполне работает и годен для повседневных задач вроде серфинга, документов, чатиков и даже поработать набирает около 3.5 тысяч попугаев.
При этом около-топовые процессоры предыдущего поколения вроде i7-8750H или i5-9300H набирают попугаев меньше, чем iPad — 18.8 и 15.5 тысяч соответственно.
И это при том, что в массовые ноутбуки вообще ставится что-то уровня Ryzen 3700U, который набирает 10.8 тысяч. А тот самый процессор, с которым сравнивают 8cx (5-8250U) набирает 11.4 тысячи баллов, что вполне соответствует текущему неплохому ноутбуку для широкого рынка.
О каких проблемах производительности вы говорите?
Да, 8cx не супер-топ, но нет никаких оснований думать, что тот же Apple через банальное расширение теплопакета вкупе со добавлением еще нескольких ядер не сможет ускорить тот же процессор от iPad на треть, что будет соответствовать топовым мобильным процессорам на текущий момент, которые набирают в тестах 29-33 тысячи попугаев.
Да и Qualcomm на месте не стоит. И это учитывая то, что они уже находятся на уровне весьма производительных массовых процессоров от Intel и AMD.
И вот теперь вопрос: почему покупатель должен выбрать устройство на ARM?
Сейчас, на винде — никаких, побаловаться разве что. Но проблема то не в производительности.
Сейчас, на виндеНо зачем [юзеру] сейчас — Windows? Чтобы запустить нативный хром, в котором — облачный офис?
Но стоит только заменить (полноценные) окощки на (подставить по вкусу) — и ситуация кардинально меняется.
Ноут, который всегда холодный, держит уверенно зарядку на целый день, и шутя выполняет «ответил на почту», «нарисовал презентацию», или там «поправил и запушил в идее код на кровавоэнтерпрайзной жаве»?
Прекрасного качества ретина, памяти-дисков acceptable, мультитач — дайте два!!!
И сверху вишенка на торте, ваш банк-клиент (мобильный) работает на десктопе, и вам больше не нужно карячиться в браузере? Да это же мастхэв! (в сторону) да, я в курсе про anbox. Но сыроват-с...
Только один вопрос, под него свежий Linux как, встает без бубна? Если ответ положительный — то shut up and take my money! :-)
«Чтобы ваши привычки не ограничивали ваш карьерный рост, необходимо делать так, чтобы применяемые вами инструменты не ограничивали рамки решаемых вами задач» (с)
пока юзеру на ноутбуке не надо вдруг «одну линию в автокадеЕсли уж Adobe сподобилась поддержать арм, то и автодеск это сделает тоже.
А для некромантов есть qemu, проэмулирует ваш померший x86 :-)
И кстати очень ваш комментарий нагляден — перейти на новое вполне можно, да старье мешает :-)
Нет, это не значит что (ваш любимый CAD) внезапно дематериализуется… но вот его подложка (Windows) со временем явно подорожает, что и простимулирует производителя портировать кодовую базу на другую подложку.
Меньше достоинств — меньше база пользователей — меньше тираж — рост цены — падение темпа внедрения инноваций — меньше достоинств…
В мире кровавого энтерпрайза, сейчас мноогие внезапно просыпаются из спячки, и в холодном поту вдруг спрашивают — «а как это 80% пользователей это мобильные клиенты?!». Ну вот так, мобильная революция. Началась в 2009м, к 2014му победила, в 2019м до динозавров начало доходить, что пол-хвоста уже кто-то съел…
Так что и до (чудесный список) тоже дойдет :-)
Тут вопрос немного в другом — на что они перейдут в итоге, вот это — интрига. Или Linux, или macOS :-)
Для современных IDE от JetBrains, например, требуется достаточно производительный процессорЯ вот пользуюсь, на дохлом ноуте. Вполне. Новый арм явно будет шустрее, это даже по планшетке видно, на примере того же браузера.
Слак даже в моем телефоне 2013 года выпуска вполне работает. По сравнению с микрософт тимсом на восьмиголовом десктопе — так еще и пошустрее будет, хе-хе.
Ну и ход конем с тоталом я вообще не понял. Он у меня в телефоне вполне себе есть. И на десктопе я его могу хоть в wine, хоть в anbox запустить. Кстати в wine и запускал, пока фар нативный не появился.
В сухом остатке — докер под вопросом и компиляции больших проектов типа того же хрома.
А фотошоп, если верить статье, уже спортировали под арм.
Так что — вполне себе опция, осталось дождаться в продаже, посмотреть на цену, и вкрячить туда Linux :-)
А они возьмут и сделают по примеру телефонов закрытый загрузчик какой нибудь
Яблоки — да, эти могут… вряд ли, достаточно много тех, кто берет макбук для окошек и линуксов. Но — могут… вкрячили же они свой T2, не постеснялись.
Но следом за ними начнут выпускать версии асусы, самсунги, и леновы, это и будет самое веселье.
Ну а когда подключатся худой панкрат с деллом — революция пройдена успешно…
Нынешнее поколение ARM по производительности не очень далеко убежало от вашего дохлого ноутбука, увы.Это уже зависит от задач, некоторые так явно быстрее чем у интеля, а некоторые — медленнее :-)
мне нужно чтобы они работали быстро и без эмуляции, Wine и прочих вещей.Я вот давно плюнул, лучше уж «с прочими вещами», чем непредсказуемо.
Захожу в свой аккаунт JetBrains и там тоже ARM версий не наблюдается.Хах, так версию Java под ARM дают в вашем дистрибутиве, и этого достаточно чтобы запустить идею.
И более того — в штатной идее идет пара бинарников в комплекте, и под арм они уже (!) поставляются. Прямо сейчас. Можно заглянуть в каталог идеи и узреть там (к примеру) fsnotifier-arm. Та-дам :-)
Вы скажете — во всем этом есть какой-то такой налет ехидства… не без этого.
Но простите, как мы можем помочь микрософту, если они вместо делания нас (своих пользователей) счастливыми — постоянно нас пытаются перевоспитывать, за наши деньги?
На данный момент IDE от JetBrains не поддерживают полноценную работу на платформе ARM.… под Windows, вы договаривайте.
А в линуксе… очевидно, да? :-)
В том, что свой «сюрфейс» мелкомягкие анально огородили — виноват вовсе не ARM…
В том, что свой «сюрфейс» мелкомягкие анально огородили — виноват вовсе не ARM…Чем они его огородили?
2) 32 Bit UEFI.
Эти два пункта делают запуск линукса на старых микрософтовских таблетках «любимым» развлечением линуксоидов — танцем с бубном.
Чем они его огородили?Cвоим Windows Store, натурально :-)
Вот например, где раздают Java под армовский сюрфейс? А нигде.
Jun 24, 2020 — Today, our team is excited to share that it has completed the first phase of porting OpenJDK for Windows 10 on Arm (AArch64).
Народ с протянутой рукой стоял с 2012 года… Но нет. Потому что «надо на жавашкрипе писать UWP».
Я же говорю — микрософт вместо того чтобы нас делать счастливыми — за наши деньги учит как правильно. :-)
Хах, так версию Java под ARM дают в вашем дистрибутиве, и этого достаточно чтобы запустить идею.
Были у меня как то попытки запустить Android Studio (именно Android Studio а не Idea) на устройстве с Samsung DeX в режиме (уже прикрытом) Linux-on-DeX. (ну как ARM-десктоп на Linux сойдет же?) Если кратко — запускается, любые вещи которые требуют старта компиляторов — не работают. Что-то не доделали.
У них не тротлил под нагрузкой из Prime95. Понятно дело не бустил, но и не тротлил.
Другой вопрос — а почему и как оно должно быть лучше других ноутбуков с таким же набором характеристик (включая материалы, размеры и собственно спецификации) и такой же ценой? Они все примерно про одно и то же.
А почему хотелось лучше других — ну я надеюсь в следующем году поменять ноутбук, т.к. IBM T61 немножко устарел, а я уже смирился с тем, что 4:3 экранов больше не будет. Но видать опять пришёл заяц несудьбы. Либо печка с тротлингом, либо в турбо работает пару минут, либо этого турбо и нет, либо просто кусок [censored].
он постоянно греется. Даже сейчас, когда я читаю вот прям с него этот тред.Что смешно, у меня ровно такая же история с Win10 :-) Постоянно что-то делает и греется…
Только еще хуже — может в 2 часа ночи вдруг как засветить экраном и как зашуршать вентилятором — хотя я вообще в это время сплю :-)
И да, попытка тот же хром собрать — приводила к жесточайшему реву вентилятора и жуткому тротлингу. Я правда не пробовал подождать — само вырубится или нет, бежал на помощь :-)
А вот любовно потюненная по арчевым вики поделка финского студента на нем же — несказанно радует… но правда батарейки все равно хватает ненадолго. От розетки до розетки…
Так что я в раздумье — моя опенсусь под армы вполне себе есть, стим у меня один фиг под столом на восьмиголовом AMD и дискретной NVidia (тоже опенсусь), софта не из дистра и x86-only у меня немного, виртуалбокс гонять есть где… зато anbox будет нативный, пуркуа бы не па?
Хех. Не знаю, как Эппл, а Microsoft не даёт «устанавливать» на десктоп UWP для мобильных.
Глядишь, и мелкомягкие тоже через пару лет очухаются, и мы еще не раз потом услышим, что именно в микрософт придумали запускать на десктопе мобильные приложения, еще в 2012 году :-)
Яблочные вот анонсировали.ну там и МС не запрещает галку поставить, чтоб мобильное UWP установиось на десктоп, xbox…
Я знаю про более-менее сложные приложения, которые были перенесены с телефона на десктоп, и в случае windows и в случае ios это не ограничивалось одной галочкой. Везде возникали какие-то траблы с зависимостями, и пришлось адаптировать интерфейс.
Тем более что в случае банковских приложений такой перенос открывает новые векторы атаки и ни один банк в здравом уме не согласится на это без реализации дополнительных средств защиты.
С того времени ситуация кардинально не поменялась.
Если вы позабыли, тогда нельзя было ставить десктопные программы даже для ARM и эмулятора х86 не было.
Lenovo Yoga 5G, например, раза в полтора медленнее Dell XPS 13 9300
Это который у них на топовом i7-1065G7? :)
автономность у этих двух устройств вполне себе сравнима — около 16 часов.
В проигрывании видео до смерти батареи? Так там ни на х86, ни на ARM проц не загружен. Мой ноут должен жить в таком режиме 20ч при меньшей батарее.
Вот 4К 60 FPS HDR видео c ютуба:

В тексте дичь написана. Человек, походу, юзает х86 хром через эмулятор и недоволен тормозами. Surprise :)
Я пользуюсь Edge для ARM64 и там всё нормально работает.
Быстрее чем 1 из моих десктопов на Steamroller 4.3GHz в том же Edge.
Если сравнить эти показатели производительности с Ryzen 4700U, то ситуация становится еще печальнее для Snapdragon 8cx.
Это процессоры совершенно разных классов, у 8cx — 7W TDP, у 4700U — 15-25W
Только есть один нюанс.
www.ixbt.com/news/2020/05/13/ryzen-7-4700u-linux-intel-amd.html
Энергопотребление 15W Ryzen может зашкаливать за 55W, в то время как Интел держит свои 15W.
Я уже приводил тут пример, что бывает если в ARM ноут поставить х86. Galaxy Book S на Интел проигрывает по эксплуатационным характеристикам, кроме доступности приложений, конечно.
И вот теперь вопрос: почему покупатель должен выбрать устройство на ARM? Какими оно обладает качествами, которые компенсируют вполне серьезные проблемы с софтом?
Для меня наличие ARM и есть самое главное качество. Кроме этого нужен не перегревающийся, шустрый ноут с качественным экраном. Нужно чтобы долго держал заряд в слипе и мгновенно просыпался. Ну вот я заряжал ноут даже не помню и когда. Коснулся клавиши. Он мгновенно зашёл в десктоп и 50% заряда на месте. Также кому-то пригодится и LTE. Мне — не нужно.
но он работает крайне медленно.
Это верно и не верно одновременно. Не нужно всё мешать в кучу.
Браузер имеет JIT-компилятор, который генерит х86, код, который нужно эмулировать на лету. Эмуляция это тормозной процесс.
А вот обычные программы, которые могут быть статически оттранслированы, не будут сильно тормозить, потому как код транслированный код сохраняется в кэш. Так что даже игрушки работают нормально под эмуляцией. Разумеется те, что GPU потянет.
Я пробовал всякое старьё типа Lost Coast — работает очень плавно.
Проблема тут в том, что не все инструкции легко транслируются в ARM (AVX2, например)
Вы удивитесь, но в популярных процессорах Интел нет никакого AVX.
Поэтому даже смысла транслировать такие инструкции нет, т.к. практически везде есть фоллбэк на SSE2.
Не знаю как Microsoft, но Apple их не транслирует.
по производительности Snapdragon 8cx уступает актуальным процессорам Intel U-серии.
Ну уступают где-то 30% в однопотоке, и что? Это небольшая разница.
Лично я не испытываю недостатка в производительности нативных приложений.
Парадоксально, но больше всего производительность платформы заботит людей, которые ей не пользуются.
стоят ощутимо дороже многих современных ноутбуков, не говоря о Chromebook, с которыми, они и конкурируют.
Потому что это красивые, качественные девайсы.
Microsoft же не может заставить кого-то делать низкомаржинальные
девайсы из говна и палок за $200. И сами они такое не делают.
Но да, дешёвые боксы для тестирования софта очень пригодились бы разработчикам, но увы.
А что Chromebook?
$999 за Google Pixelbook сильно дешевле чем $999 за Galaxy Book S?
www.google.com/chromebook/device/google-pixelbook
В итоге ARM платформы с Windows на данный момент не более чем игрушки для гиков.
Отчасти тут вина Майкрософта на самом деле, в том что бросили пользователей без нативного софта, а разработчики не имеют дешёвых тест-систем. Apple делает правильно — они сами портируют софт.
Надеюсь после увеличения популярности winget можно будет более удобно ставить софт.
Отчасти тут вина Майкрософта на самом деле, в том что бросили пользователей без нативного софта
Именно… во всей этой истории меня больше всего порадовало, что офис для мака на арме у микрософта есть, а для сюрфейса на том же арме — нет. Это вообще кто на ком стоял?
2020 Lakefield
ark.intel.com/content/www/us/en/ark/products/202777/intel-core-i5-l16g7-processor-4m-cache-up-to-3-0ghz.html
2020 Pentium
www.intel.ru/content/www/ru/ru/products/processors/pentium.html
2020 Celeron
www.intel.ru/content/www/ru/ru/products/processors/celeron.html
Как вы думаете, что объединяет все эти процессоры?
Правильно, они не поддерживают AVX, ни первый, ни второй.
Ну и да, Excavator появился в 2015.
А то вдруг получится что «практически все» это типа 30% рынка? :)
Я уже писал, что в программах есть SSEх ветка.
Транслировать SSE2 в NEON эффективнее, потому что оба набора 128-битные.
И вот тут и возникает самая главная проблема современных решений на ARM: производительность
На Apple такой проблемы нет.
Там сейчас 3 NEON юнита, т.е. вычисление 384 бит за такт.
Зачем разработчикам вкладывать кучу времени и денег в разработку продуктов под ARM
Портировать под ARM на той же ОС и с тем же компилятором не сложно. Для большинства программ вообще ничего делать не нужно. Может хватить и нескольких кликов чтобы добавить таргет.
Вообще более геморно это не х86 код под ARM завести, а ARM-омский код с интринсиками clang завести на msvc, к примеру.
Инструкции AVX и AVX2 имеют длину до 256 бит и поддерживают до 3 операндов.
Что, правда? Удивительные вещи происходят.
Ещё раз, моя цитата:
Транслировать SSE2 [а не AVX2] в NEON эффективнее, потому что оба набора 128-битные.
>> уже около 8 лет
Чисто номинально. На самом деле я несколько лет пытался купить себе ARM ноут с Windows 10 (не «2 в 1»).
Их просто нигде не было в онлайн магазинах.
Их можно транслировать
Их не нужно транслировать.
Как правило программы использующие AVX(2) имеют фоллбэк на SSE2.
Иначе они не заработают на реальных процессорах Интел 2020г.
Вот, к примеру Ubisoft оторвались от реальности:
overclockers.ru/softnews/show/93772/assassin-s-creed-odyssey-otkazyvaetsya-rabotat-na-nekotoryh-otnositelno-staryh-processorah
Ходят по граблям.
но при этом сильно падает производительность (как минимум в 2-3 раза)
Важно то, что оттранслированный SSE2 код скорее всего будет работать быстрее чем AVX(2). Т.е. поддержка AVX(2) это хуже чем не поддержка.
Маленькая пользовательская база -> Не интересно производителям
Тем не менее ARM ноуты на Windows делали Microsoft, Samsung, Lenovo, Asus, HP.
К сожалению никто из них не выпустил дешёвый ноут из говна и палок на 7cx за $300-400 (правда непонятно, Qualcomm его вообще доделал?). Думаю это бы сильно улучшило ситуацию с доступностью софта.
Intel Core i7-10710U @ 1.10GHz
Overall: 21,093
Integer Math: 36419 MOPS
Floating Point Math: 22442 MOPS
String Sort: 17.4 Million Strings/Sec.
Find Primes: 33.9 Million Primes/Sec.
Apple iPad Pro 11.0 (Cellular)
Overall: 19,635
Integer Math: 26766 MOPS
Floating Point Math: 16461 MOPS
String Sort: 15.2 Million Strings/Sec.
Find Primes: 68.9 Million Primes/Sec.
Числодробилки у Intel'а лучше процентов на 40, string sort на 15… Эмм, 68.9 в Find Primes? Каким-то образом конкретно этот тест у Apple вдвое быстрее, да чего уж там, тут даже i9-10900K не конкурент (у него 64.4).
Буду благодарен, если кто-нибудь объяснит такой перекос. Уж не являемся ли мы свидетелями пресловутой оптимизацией под бенчмарки? beeruser?
Я взял несколько ближайших к ipad процессоров и там картина совершенно другая.
Вот к примеру Intel Core i5-9600K @ 3.70GHz:
Integer Math: 30252 MOPS
Floating Point Math: 25585 MOPS
String Sort: 19.1 Million Strings/Sec.
Find Primes: 44.9 Million Primes/Sec.
Судя по всему Find Primes аномально медленный на всех мобильных процессорах от Intel в сравнении с десктопными процессорами.
Integer Math: 88376 MOPS
Floating Point Math: 55237 MOPS
String Sort: 48.3 Million Strings/Sec.
Find Primes: 64.4 Million Primes/Sec.
В разы сильнее iPad'а в первых трех тестах, и внезапно слабее на Find Primes.
Буду благодарен, если кто-нибудь объяснит такой перекос. Уж не являемся ли мы свидетелями пресловутой оптимизацией под бенчмарки? beeruser?
Passmark это какая-то адовая дичь из 90-х.
На результаты не стоит даже и смотреть.
Но если вам интересно, давайте посмотрим что они считают:
www.cpubenchmark.net/cpu_test_info.html
Integer Maths Test
The test uses large sets of an equal number of random 32-bit and 64-bit integers and adds, subtracts, multiplies and divides these numbers.
Т.е. цикл с бессмысленными вычислениями. Какой полезный тест.
Примерно как сравнивать мухоморы по количеству белых точек на шляпке.
Судя по всему, там много зависимых вычислений, за счёт чего более высокочастотный процессор выигрывает (i7-10710U разгоняется до 4.7GHz)
Compression Test
The compression test uses Crypto++ Gzip (based on the DEFLATE compression algorithm). This tests uses memory buffers totaling about 4MB per core.
Gzip уже лучше чем левые вычисления, но 4МB — влезает в L2 кэш на iPhone.
Prime Number Test
the most intensive being multiplication and modulo operations. All operations are performed using 64-bit integers. This test uses about 4MB of memory per core. The specific formula used for this test is the Sieve of Atkin with a limit of 32 million.
Умножения и модуль. Целочисленное деление у Apple быстрее чем у Интел.
также 4МB датасет влезает в L2 кэш на iPhone. Впрочем я не смотрел алгоритм, может это и не важно.
В общем бесполезная трата времени.
SPEC, GB5 измеряют время выполнения реальных, полезных программ, таких как компиляторы, компрессоры, и т.д.
PTS тоже пытается, но он жутко кривой.
производительность текущих аппаратных платформ (Snapdragon 8cx, например) ощутимо ниже чем у решений на основе Intel и AMD Ryzen.
Топовых да, но вы забываете о более слабых.
Что вы собрались делать на ультралёгком ноуте без активного охлаждения?
Для чего вам может не хватать 8сх? Для игрушек? Странная затея на таком ноуте играть в последние ААА новинки. Впрочем даже игры там работают под эмулем вполне сносно.
«Apple разрешит устанавливать макось на iPad и iPhone».
appleinsider.com/articles/20/06/30/apple-reportedly-evaluating-apple-silicon-powered-macos-on-iphone

Что неистово увеличит install-base для ARM-based macOS, и сделает экономически привлекательным скорейшее портирование софта.
на рынке есть гораздо более мощные решения вроде видеокарт GeForce GTX 2080 и ожидаемой GTX 3080.
А что мешает использовать внешние ускорители с центральным процессором на ARM, а не на x86? Ускорителю то в целом все равно на архитектуру ЦП. Те же Jetson/Tegra вполне себе уживаются с ARM ядрами, при этом они построены на базе чипов от графических ускорителей.
К слову, некоторые производители оборудования даже для Windows 10 драйвера осилить не смогли, а мы тут с ARM.К слову МС уже несколько лет педалирует производителей делать универсальные дрова в том числе с поддержкой АРМ. Так что более-мене популярное железо на арме работать будет.
Возможный рост популярности ARM в десктопах, ноутбуках итп напргяает меня с точки зрения вендер-лока и поддерджки всяких линуксов.
Если это зайдет, если все бросятся в след за Apple клепать свои клоны (как обычно и происходит), то не получился ли так, что у нас будет ARM от Apple с Apple софтом, ARM от Google, ARM от Huawei, ARM от Qualcomm и так далее. Да, набор инструкций одинаков (насколько одинаков с учетом разных версий ARM?), но ведь есть еще всякие кастомные ускорители (которые будут применяться все активнее), драйвера и прочее. Поддержка со стороны софта у разных производителей мобильных устройств так себе. На x86 можно обновлять ОС и ставить практически любые ОС десятки лет, в то же время в сфере мобильных устройств с этим дела куда хуже.
Поэтому, боюсь, в итоге окажется куча частично-совместимых АРМов от разных производителей, со своими ОС, с закрытыми драйверами, с плохой поддержкой и обновлениями.
Для начала допустим, что переход Apple на ARM прошёл удачно. Потому что если не так — то нынешняя ситуация консервируется ещё лет на пять, рассматривать этот вариант не интересно.
Допустим, MicroSoft форсирует портирование Windows, MS-Office и прочих приложений (в т.ч. серверных) на ARM; приложения — как для Windows, так и для MacOS. В этом случае производители компьютеров, задрав штаны, бросаются выпускать компьютеры на ARM.
Если всё пойдёт нормально (т.е. производители не допустят совсем уж дебильных косяков), то Intel и AMD сильно теряют рынок и лишаются прибылей. Тогда им тоже придётся выпускать процессоры с системой команд ARM; и сама архитектура *86/AMD-64 оказывается под угрозой — вплоть до полного исчезновения с рынка.
Теперь допустим, MicroSoft решит проигнорировать ARM, в т.ч. в плане портирования MS-Office под MasOS для ARM. Тогда Apple станет форсировать OpenOffice/LibreOffice для MacOS. В результате вырастет доля людей, предпочитающих OpenOffice/LibreOffice — и популярность свободных офисов станет расти и среди пользователей Windows. В результате конфликта «MicroSoft отказывается портировать MS-Office» — пострадают и Apple, и MicroSoft; неясно, кто сильнее. Для MicroSoft тут главная опасность в том, что люди, перешедшие на OpenOffice/LibreOffice — намного легче уходят на Linux.
Ещё один вопрос — в том, будут ли производители компьютеров (или компонентов — мат.плат и процессоров) выпускать ARM-компьютеры, если MicroSoft решит проигнорировать ARM. Если будут — то на таких компьютерах наверняка будет Linux, Android или какая-то иная альтернативная операционка. И вот тут неизвестно, какую долю рынка настольных операционок может потерять Windows: если для Windows упадёт ниже критического уровня, то дальше может начаться лавинообразное падение популярности Windows вплоть до нуля; а вслед за уходом настольных Windows — серверные Windows тоже станут ненужными.
Правда, для MicroSoft это не станет смертельным ударом — у неё есть другие виды бизнеса, типа содержания подводных хостинговых площадок. Поэтому непонятно, будет ли MicroSoft драться за рынок настольных операционок до конца, или тихо сольёт его.
Тут надо бы учесть, что значительную долю рынка процессоров, чипсетов и мат.плат держат непосредственно Intel и AMD; а остальные крупные производители плотно связаны с ними договорами. И тут — Intel и AMD могут оказать давление на своих партнёров, требуя не выпускать компьютеры на ARM. Так что вторжение ARM на рынок настольных компьютеров следует ждать скорее со стороны фирм, которые на данный момент выпускают электронику, но не настольные компьютеры.
Apple, скорее всего, в принципе не станет выпускать компьютеры без MacOS. Отпадает.
Возможно, на рынок настольных компьютеров попытается вернуться IBM — уже с ARM. Это было бы весьма эпично.
Ну или на этот рынок пойдёт кто-то из крупных производителей роутеров, смартфонов, etc.
На данный момент компьютер на ARM с Linux (или некоторыми иными операционками) уже вполне можно собрать на RaspberryPi или аналогах. При этом производители компьютеров как-то не рвутся выпускать компьютеры на ARM.
Поэтому лично мне кажется весьма вероятным вариант: Apple успешно перейдёт на ARM; MicroSoft не станет портировать Windows на ARM, невзирая на наличие в прошлом работы в этом направлении (или станет но очень неторопливо), ограничившись портированием MS-Office на ARM под MacOS; и основная часть рынка настольных компьютеров останется примерно в нынешнем состоянии. А ARM будет продолжать медленное наступление на серверный рынок и на рынок встраиваемых систем (RaspberryPi, роутеры, смартфоны, etc; собственно, этот рынок давно уже почти полностью под ARM, а остальная часть почти полностью под MIPS).
Так что серьёзные изменения возможны лет через пять. Ну, минимум — через три года; или если совсем оптимистично — то первые подвижки можно будет заметить года через два.
Вполне возможно, что MS может попросить Apple выпустить Boot Camp (поддержка винды на маках) и для ARM-Windows, что увеличивает потенциальную install-base ARM-винды.
(Хотя это пока не точно: www.theverge.com/2020/6/24/21302213/apple-silicon-mac-arm-windows-support-boot-camp )
В любом случае от перехода Apple на ARM очень выиграют ARM'овые *nix'ы — Apple очень многое контрибьютит в опенсорс и это всё рано или поздно доберётся до линуксоидов.
Вообще-то у Apple свой офис есть: www.apple.com/iwork
Вероятно с переходом на ARM Apple станет закручивать гайки с ограничениями системы, на железо скорее всего Linux уже будет не поставить, а на Mac OS будут жестче ограничения на запуск приложений не из AppStore, в плоть до полного запрета для простых пользователей, если они перестараются — побегут в первую очередь продвинутые пользователи и разработчики для других систем, что может стать началом конца.
Либо второй вариант, пойдут на сближение с iOS и получится гибрид, все нативные графические приложения в контейнерах но с возможностью запуска стороннего кода в своих песочницах, но опять же, не факт, что всех это устроит.
«Apple не покупает дорогущие чипы Xeon»А что же они тогда покупали и продолжают покупать для Mac Pro?
Apple Silicon: конец эры Wintel