Комментарии 165
Всем понятно, что большинство программного обеспечения пишется и оптимизируется для x86, а под ARM будет работать через эмуляцию,
А я думал, что приложения пишутся на C/С++/Java, а дальше их можно скомпилировать, например, под ARM, что и позволяет выпускать тот же Debian(с десятками тысяч пакетов) под десяток разных архитектур.
Понятно, что есть всякие SSE, AVS и пр., но их использует очень небольшое количество ПО и, насколько мне известно, современные компиляторы ещё не умеют автоматически использовать эти возможности.
AVSAVX))
но их использует очень небольшое количество ПОНу их использует как раз то ПО, тормоза которого будут ощутимы, потому что как раз с этим ПО люди заморачиваються.
современные компиляторы ещё не умеют автоматически использовать эти возможностиУмеют, хоть и не дотягивают пока до человека (насколько я знаю).
Вообще, насколько я знаю, Винда ARM очень слабо поддерживает, так что наверное проблема еще и в этом. Ну и разные архитектуры означают разные инструкции и их характеристики.
А так сейчас у Intel'а есть доля в 80-90% от процессоров х86/х64, плюс доля на рынке компиляторов и тд. А если занять 100%, то отнимут все дополнительные рынки.
Во-1, АМД младше Интела… на 1 год. 1969 против 1968-го, до создания микропроцессора на х86 архитектуре оставалось… 10 лет
(это из оперы Интел придумал АМД)
Во-2, если посмотреть тестирования Интел вс АМД с включенными патчами от мелдония и спектры, то Интел не смотрится от слова совсем.
В-3, самая быстрая платформа — за АМД.
ПС. У Интела сейчас цейтнот, нет идей, постоянные скандалы, отсутствие диверсификации бизнеса.
Во-вторых — патчи мелдония, скорость платформы… Это все неважно. Для корпораций важна прибыль и доля на рынке. Интел гребёт бабло лопатой, монополизировав рынок десктопов, ноутбуков и весь корпоративный сектор от корпоративных же ноутбуков и вплоть до серверов. А АМД притворяется живой.
sarcasm
Ну как же, я комп собирал — выбрал интел. Все друзья собирали, выбрали интел. Значит амд мертва!
/sarcasm
А я вот без сарказма… Собирал себе впервые десктоп (до этого покупные готовые ноуты/компы напрочь устраивали). Всё посчитал, взвесил… Взял материнку под AM2 (давно дело было) и на тот момент "что-то" из amd из процессоров. Позже вышел (впервые!) 4-ядерный феном, взял свежую материнку (уже под AM2+) под него (ещё порадовался, что она гораздо дешевле интел-ориентированных) и его самого, с теплопакетом в 95 ватт…
Погонял два-три года… Ну, как сказать… Десктоп вполне отзывчивый. Перекодировать видео (на тот момент на "новый" H264 — уже натяжно… Кодирует, но ревёт всеми кулерами, как паровоз… И десктоп в то же время начинает уже подтормаживать).
И вот тут внезапно попался задёшево ноут на core i5, того же поколения, что мой phenom… И внезапно выяснилось, что то же видео он кодирует раза в полтора быстрее, при этом не ревя кулерами и не подтормаживая…
И теперь материнка с феномом, оперативкой и кулерами лежит в загашнике "про запас", потому что интеловские решения (в совокупности; мамка + проц) оказались в реальной жизни гораздо более внятными
Так что всё очень сильно зависит от того, чем конвертировать. :)
Скажем честно, не только лишь все из нас, способны смотреть на артефакты кодирования аппаратного кодера Интел.
И чем больше частота (svp просто прекрасен) и разрешение, тем большую усмешку вызывает результат.
Сейчас не эпоха S-VHS, и пятна и артефакты вызывают раздражение.
Интел догребает деньги лопатой, ибо в мобильный сектор его не пустили, АРМы они уже не производят, немного делают флеш ( но помнится они уже погрызлись с Микроном), модемы помнится тоже не вышли.
Видеокарты -всё (найт корнер, который в девичестве должен был стать первой в мире ВК на х86 — снят с производства).
Контрактным производством интел не занимается, да и проблемы с новыми ТП у них начались.
Альтера в виде сопроцессора не прижилась — а как дышали, как дышали.
Учитывая все вышесказанное — перспективы не очень.
Да обороты громадные, да — большая часть рынка его (пока).
Но «титаники» всегда тонут долго и пафосно.
А каждый раз когда пробуют (в надежде прогнуть рынок) -получается факап, как с Итаником или нетберстом.
В результате они сидят на сверхудачной архитектуре Коре разлива 2006 года, вяло копирую наиболее удачные решения АМД.
ИКП -не они придумали, х86-64 — тоже называется АМД64.
Первый двуядерник, тем более на одном кристалле — не они, интегрированное видеоядро — типа они, но это склейка.
Единственное толковое — встроенный VRM, но в следующей архитектуре Интел его же и похоронила.
В общем, обычная закостенелая контора с весьма туманными перспективами.
IBM точит зубы на этот сектор, АРМ предлагает всякое.
Интелокапец — это понятие перспективное, но Интелу в этом секторе все меньше и меньше есть что предложить.
Весь офисный и бытовой сектор сидел на АМД начиная с К7 и до Х2 пока интел кор дуо не выкатил и цена на него не опустилась до приемлемых.
Только инерционность мышления и корпоративные соглашения позволили Интелу пересидеть до белой полосы.
Если бы в АМД не отдыхали так сильно, глядишь ситуация была бы не так однозначна.
всяческие особенности работы кеша, длинная арифметика.
Ага, конечно.
Про unaligned reads забыли? Что вам будет за это на x86? — правильно ничего а только чтение меделнное а на ARM — sigbus. и в существующем коде их куча.
А это ещё блин только цветочки.
По этой причине я слез в свое время с Amd K7.
Как видим, самый мощный современный ARM-процессор Snapdragon 835 (производитель: Qualcomm) сильно проигрывает в производительности даже системе на Celeron N3450.
Если экстраполировать производительность, то уже даже прошлогодний Snapdragon 845 обгонит Celeron N3450, и это круто для ARM, учитывая их энергоэффективность.
Это всё, конечно, круто, но ведь в 2020 году и софт продвинется вперёд, и x86 процы будут еще больше энергоэффективны (надеемся, что Интел всё же разродится со второй реинкарнацией 10нм). Если утрированно говорить, то прикольно, конечно, было запускать Win98 на HTC HD2, но смысл? К сожалению, тенденции развития софта говорят только о том, что повседневный софт жирнеет не по дням, а по часам (даже виндовый блокнот научился в bing!) Поэтому на армах 20-х годов, да, если и будет что-то нормально работать, то только ПО двух-трехлетней давности, раз они сравнивают их с нынешним поколением интелов.
PS примеры типо "да даже на семилетнем 2600k всё отлично пашет" не считаются… тут же разговор идёт о энергоэффективном сегменте на грани комфортности при минимальном потреблении, где, например, J1800 совершенно не справляется с банальным современным браузингом
У меня i7-2600K разогнанный на 4.5GHz (десктоп, Linux, SSD и 24GB RAM). Периодически поглядываю на современные процы — никакого смысла апгрейдиться пока не видно. Учитывая, что помимо проца придётся менять ещё и материнку, и память, как минимум — стоимость апгрейда получается значительной, а вот ожидаемый выигрыш в производительности реальных приложений вряд ли будет заметен "на глаз". Были бы новые процы защищёнными от модных уязвимостей без больших потерь в производительности — тогда был бы хоть какой-то смысл обновиться.
так ведь моя мысль и была в том, что high-end процы на то и high-end, чтобы их хватало на несколько лет. А вот мобильные энергоэффективные версии всегда находятся на границе добра и зла )) И уже буквально через пару лет полностью оказываются непригодны к ежедневному использованию ввиду постоянного роста средней температуры по больнице тяжести контента. Поэтому будущие армы, сравниваемые с текущими лоу процами, будут иметь крайне малый запас скорости в рамках нагрузок 20-х годов.
Ok, давайте про мобильные. У меня уже довольно старенький (лет 5-6) Samsung Galaxy S3 (правда, его редкий вариант i9305 с 2GB RAM и LTE). Ну и Cyanogen, разумеется, родные прошивки это зло. Никаких проблем, тормозов, нехватки места, etc., регулярно качаю новые игрушки и пока все отлично работали, обычные приложения тем более — единственная причина заставляющая периодически задумываться об обновлении — для этой модели нет поддержки текущих версий LineageOS (обратная сторона выбора более мощной, но и более редкой модели).
Иными словами проблема не столько в том, что софт жирнеет (хотя это безусловно так, и очень раздражает), сколько в том, что железо покупается без запаса прочности, что и приводит к тому, что через год-два начинаются проблемы и его нужно обновлять. Думаю, по факту либо эта "экономия" приводит к тому, что используемые инструменты тормозят и раздражают годами, либо регулярно обновляются и в результате за суммарное время эксплуатации обходятся дороже, чем если сразу взять что-то более мощное.
Обновляться есть смысл, но если именно что не хватает производительности.
да на самом деле разница огромна даже при переходе с 2600k на какой-нить 2011-3 хасфелл от 6 ядер и более. Особенно, если добавить NVME SSD, чего на 2600k платформе сделать весьма непросто. Я тоже не верил… до тех пор пока не обновился. Дело-то не только в синтетических циферках, но и задержках IO подсистемы, которые на новых платформах уменьшаются заметно сильнее роста мощи процов, и очень бросаются в глаза.
Опять же, под виндой может и так. И при нехватке памяти это запросто может быть правдой. Но я поставил 24GB RAM (хотя практика показала, что хотя 8GB было реально мало, но вот 16GB уже бы хватило), и, скажу честно, все тормоза моментально пропали — при том, что у меня даже SSD не было!
Линух в этом отношении устроен очень удачно — при первом обращении в винту всё кешируется в память (если её хватает), и остаётся там навсегда, что делает работу с HDD и SSD примерно одинаковой (после начальной загрузки компа и всех приложений, что у меня занимало 2 минуты, а перегружаюсь я примерно раз в месяц-два).
Я только полгода как добавил SSD и перенёс на него систему — и сделал это исключительно из-за того, что на HDD заметно тормозил docker, которому при docker image prune -f
приходилось удалять файлы сотнями тысяч. Единственное заметное отличие после перехода на SSD — ускорилась загрузка системы (да, вот эти 2 минуты раз в месяц, очень важно, ага) и она стала абсолютно тихой, но в работе, если не считать docker, никаких заметных отличий от перехода на SSD (достаточно быстрый, хоть и не NVMe — hdparm показывает чтение 460MB/sec) не обнаружилось.
Под Win10, к сожалению так )))
Я виндой давно не пользовался, но насколько я помню, 7-ка, как и все предыдущие, постоянно что-то свопят на винт, даже если памяти достаточно. И вот тут SSD сильно ускоряет. Linux тоже изредка что-то свопит, но это происходит на порядок-два реже и намного менее заметно (типичная ситуация на двух примерно одинаковых компах, на которых никто ничего не делает — на винде лампочка винта моргает почти постоянно, на линухе крайне редко). Впрочем, даже этот редкий своп сильно раздражает, так что я его выключаю в принципе. Наверное, под виндой тоже можно выключить, хотя я не слышал, чтобы так делали.
У 8700k ядер больше. Если сравнить производительность, учесть мой разгон (а он линейно ускоряет, сам тестировал многократно), и сравнить производительность на одно ядро — у 2600K она будет даже немного больше (~2800 моего разогнанного против ~2660 у не разогнанного 8700K).
При этом количество ядер больше 4-х на десктопе особого выигрыша не даёт — у меня Gentoo Linux, и, честно, если бы не регулярная Gentoo-шная компиляция обновлений то и одно ядро почти никогда не занято, не то, что 4. Поэтому и нужно смотреть производительность на одно ядро, а не суммарную сколько может выжать проц если нагрузить максимально.
Гарантировать разгон сложно, но, предположим, получится разогнать 8700K на те же 4.5GHz — это даст 15% выигрыша производительности на одном ядре. Допустим, он разгонится до 4.7GHz, учитывая что его это турбо-частота шансы хорошие — это будет 20%. И, наконец, если реально повезёт, и он будет на воздухе стабильно работать на 5GHz, то мы получим уже что-то достойное упоминания, такое, что реально может быть заметно в скорости работы десктопа "на глаз" — 28.5%. При этом стоимость апгрейда потянет под штуку баксов (проц, мать, 24GB очередной новой быстрой DDR, и может потребуется ещё что-то менять).
Так что нет, обновляться смысл может быть только если это нагруженный сервер, но туда лучше ставить что-то с количеством ядер значительно большим, чем у 8700K. А обновлять десктоп с 2600K на 8700K смысла ровным счётом никакого. Не знаю, может если речь про винду и тяжёлые игрушки картина будет другая, но для линуха смысла точно нет.
Если хочется максимальной отдачи то конечно надо брать. Выше я написал, разница большая между 3770 и 8700k. Это реально чувствуется во всем.
Конечно, ssd m2 и ram 3600 способствуют тоже.
ну так про проц-то разговор идёт даже в меньшей степени. Материнка и pci-ex дисковая подсистема (может еще немного DDR4) — вот что даёт огромный именно субъективный рост комфорта работы с компом. А обновление проца при этом — скорее вынужденная мера.
Не очевидное: современные материнки позволяют использовать оперативку в дополнение к памяти на видеокарте,
Пора бы уже сменить Geforce 6200 TC, 2006 год -прям ностальгией повеяло.
www.ixbt.com/video2/nv44.shtml
Я вам ненавязчиво намекаю, что процитированное сообщение — немножко заблуждение.
Сравните скорость.
У ДДР4 вырос ПСП, но с задержками не стало особо лучше.
ВК всеравно приходится конкурировать с ЦП за доступ к памяти.
Я понимаю вашу радость от покупки, но все не так радужно, как в середине 00-х — при переезде с нетберста на коре — буст достигал сотен процентов, а не жалкие 30-40%.
Прогресс, увы, уныл. З-н Мура — мертв.
Олдфаги помнят ощущения с перехода с 5900 Ультра на 6600, и тем более на 6800.
8800 — эт вообще неописуемо.
современные материнки позволяют использовать оперативку в дополнение к памяти на видеокарте, т.е. имея, например GTX 770
Разве материнки, а не DirectX 12? А если DirectX, то тут облом — 770 в него полноценно не умеет, и не будет уметь из-за особенностей архитектуры (формально умеет, но на практике под 6xx/7xx разработчикам игр придётся делать отдельный DX12-движок, отличный от DX12 для более новых архитектур; естественно, это экономически неоправданно, поэтому удел таких видеокарт — DX11).
Что почитать по теме:
Сравнение быстродействия видеокарт в DirectX 11, DirectX 12 и Vulkan, часть 1
Никакие апгрейды не смогут понадобиться еще лет 6, а то и больше.
Попросту нет практических задач которые могли бы требовать большего.
И никакие защищенности новых процов роли не играют.
А вот с лэптопами не все так просто. совокупность быстродействие+время работы играет роль. Лэптопом приходится пользоваться часто вместо дектопа.
Попытался использовать старый лэптоп i5 — ужас, хотя он был вполне хорош. И тут процы только в путь, и если арм подтянется — будет отлично, день работы от батарей нужен при весе в килограмм.
Так что прогресс с одной стороны достиг потолка — а с другой есть куда двигаться.
Новый 256-ядерный процессор от… позволяет открывать страницу в браузере менее чем за 30 секунд!
логических ядра на ноуте с i7-6600.
на 8700k. Видимо что-то не так с вашим i7.
Он ноутбучный.
Где? дома? Потому что на днях вышел домашний и как раз по сути многопроцессорный Threadripper 2990WX с неравноправным доступом к памяти, и Винда (да и весь остальной софт) настолько фшоке от его особенностей, что его производительность как 32-х ядерного процессора скачет в разы как в бОльшую так и в МЕНЬШУЮ сторону по сравнению с 16 ядерным аналогом, что вызывает некоторое смятение. Как бы среднестатистический-то пользователь не хочет заморачиваться особенностями привязки потоков к ядрам. А в датацентрах как были 2011-3, так и есть 3647 многопроцовые
ну примерно так это и сделано в мобилах… идея-то здравая, но в больших компах, предполагаю, что зоопарк конфигураций процов, платформ и вообще совершенно по-разному написанного софта сведёт всё это на нет. На жёстко контролируемых маках это еще хоть как-то было бы возможно, но на остальном — утопия. Слишком всё уже завязано на то, что всё одинаково и доступно в равных условиях. Да даже банально то, что софт сильно часто общается с подсистемами ОС, и их нельзя просто так взять и развязать по дальности памяти и процов.
Системе вроде нельзя а usermode приложениям можно man CPU affinity. В Винде даже через GUI taskmgr/process explorer
почему многопроцессорные ПК стали редкостью?
Мне кажется, при наличии денег они немедленно перестают быть редкостью)
https://m.aliexpress.com/item/32896997783.html
Матплата + два проца + память. Не последний чипсет, не свежие процы, но производительность мне нравится.
И как оно на вкус? Вот хочу но не знаю зачем) у меня i7 960 + 18 gb DDR 1333, вроде и хватает, а тут такая красота.
С телефона не могу найти, но буквально позавчера другу показывал набор X79 за 20к в виде мвтплаты, проца и 8 гигов ддр3.
Сам покупаю наборы 10-ти ядерные на одном проце за 20к комплект, выходит дешевле чем любой новый ритейл тут.
По стоимости если всё сложить, то уже получается 500 долларов, + стоимость доставки из США через посредника, + на выходе материнская плата с нестандартным разъёмом питания, а если что-то не заведётся (V2 процессоры вообще заявлены для этой ревизии платы?), то кому из продавцов предъявлять претензии?
Вариант конечно имеет право на существование, но в целом не всё так радужно…
Чушь какая, там вполне стандартный разъём.Ну значит вас ждёт сюрпрайз)
Показанное на видео верно и для T5600. Это Dell, у них очень многое намеренно сделано несовместимым со стандартами.
Следующий рывок производительности ожидается при переходе на NonMA (раздельная память процессоров при быстрой шине); либо при UMA+S (общая память с раздельным использованием — без синхронизации кэшей).
Фразу «в память лезть дольше» я не понял. В NonMA — у каждого процессора собственная память, в неё он лазает быстро. Особенно если учесть, что другие процессоры туда не лазают, коллизий не бывает.
В UMA+S — пожалуй, да: лазать в память будет дольше, и коллизии при одновременном cache-miss будут.
PS: Т.к. я не могу постить ответы чаще чем раз в час — хорошо бы обсуждать это там, где третьи лица не могут помешать двум приличным людям культурно обсуждать интересующую их тему.
Понятно, что надо потихоньку уходить от концепций, сформировавшихся, когда частота процессора совпадала с частотой памяти, а кэшей вообще не было, а не вбивать костыли в промышленных масштабах. Но скорее всего тот, кто это попробует сделать, сверхприбылей не обрящет, а проблем соберёт со всей индустрии.
Как видим, самый мощный современный ARM-процессор Snapdragon 835 (производитель: Qualcomm) сильно проигрывает в производительности даже системе на Celeron N3450.
Имхо, так себе сравнение, один из участников заведомо в проигрышных условиях. Я делал проще — брал Safari и сравнивал производительность в браузере (MacBook Pro 2014 15" Core i7 и iPad Pro 10.5) — и что по результатам тестов, что по реальным ощущениям iPad уже быстрее, чем ноутбук. Результаты GeekBench говорят примерно такие же вещи.
Понятно, что тяжелый и специализированный софт надо будет адаптировать, но, если все будет так, как с браузерами — Интелу действительно грозит неиллюзорная возможность быть в пролете :)
по реальным ощущениям iPad уже быстрее, чем ноутбукОй, об этом не стоит беспокоиться. Пара обновлений iOS, и такое ощущение как рукой снимет)
кэши
Кэши есть даже у микроконтроллеров. Вопрос в их объеме и ширине.
бранч-предикторы
Как и спекулятивное выполнение. Это же есть и у ARM, и это — часть проблемы Spectre (которой так же подвержен)
разная встроенная периферия
Простите, я думал, что как раз ARMовские SoC радуют пользователя "периферией на любой вкус и цвет"+гетерогенные системы. Чего такого интересного есть у интела?
… а траектория развития процессоров ARM превзойдёт закон МураНо Закон Мура — про количество транзисторов на кристалле, а не про развитие, производительность или что-то ещё
Слабо что-то верю в ARM, они обещают захватить ноутбуки уже лет 10, да вот только ОС для этой архитектуры так нормальной и не сделали. Андроид как-то существует, благодаря тому, что нет разделения на планшетную и смартфонную версию, apple кажется забила на планшеты.
В итоге ms surface go с х86 процом и аккумом 6 Ач на лески раной винде работает 7 часов. Аналога на ARM не видно что-то
вот только ОС для этой архитектуры так нормальной и не сделали
Под ARM давно есть и Linux, и Windows и еще куча разных других операционных систем. Если вы говорите про "десктопное окружение для домашнего пользователя", то профита в ARM-ядре особо нет. Кому не нужна производительность, берут Intel Atom, а до быстрых решений ARM Cortex не догоняет.
Что до эмбеддеда, то ARM там живет и здравствует: производительность там особо не нужна, а в обращении он будет попроще.
Аналога на ARM не видно что-то
Был Surface RT, похоронили тупейшей политикой распространения приложений (а жаль). На любой андроидопланшет гипотетически можно было бы поставить обычный Debian, но, как человек, ставивший Arch Linux на ASUS Transformer TF300T, скажу, что пингвин не приспособлен к планшетному применению и Windows 10 намного впереди.
Полправил вам заголовок: Новые процессоры ARM, которые сейчас пока ещё только в проекте и через два года должны появиться в продаже, смогут потягаться со старыми Core i5, которые вышли два года назад, а на тот момент будут уже четырёхлетними.
cpu.userbenchmark.com/Compare/Intel-Core-i5-8400-vs-Intel-Core2-Quad-Q9550/3939vsm334
Надо еще понимать для чего он нужен. Например, в новейших играх на 1080ti его будет не хватать. В то же время для обычных задач будет с избытком.
+138% i5 8400 vs q9550 реально?
Для процессоров, между которыми лежит почти десятилетие? Ну, если вы отмотаете примерно столько же времени назад, конкурентом q9550 будет что-то вроде Pentuim III 450. Там разница в быстродействии будет раз в тридцать, если не больше.
После замены процессора (и, соответственно, памяти) на i7-6700 (при сохранении той же видеокарты GTX670) я смог выставить средние и даже максимальные настройки без видимых проблем.
С i5-8400, думаю, было бы ещё лучше, игры предпочтут 6 полцоценных ядер вместо 4 ядер пусть и с 8 потоками.
Новые процессоры ARM смогут потягаться с Core i5