Comments 295
Nomacs, Ryzen 2600:
[INFO] "/home/<username>/Downloads/TRcIOD.jpg" loaded in 7 sec
А каким инструментом посмотреть картинку на 185 Мб?Символичный вопрос… А я всё думал для чего создают процессоры подобные сабжу )))) Видимо чтобы было комфортно просматривать статью про него же )))
Маленький хак с Reddit, который в разы ускоряет mathlab на AMD.
Бойтесь данайцев, дары приносящих?
PS архитектурные отличия Intel в mathlab, судя по reddit — это включение наборов расширенных инструкций выше SSE1 для синих процессоров. Хак включает их и для красных.
Честная конкуренция. Интел сделал в своей библиотеке использование неэффективных инструкций на процессоре конкурента, а потом использовал это для бенчмарка. Позор, что Интел вместо того, чтобы улучшить процессоры, использует такие грязные способы обмана потребителя.
Придётся ли Intel убрать из компилятора функцию, намеренно выдающую плохой код для процессоров AMD?
Подмена CPU ID с AMD или VIA на Intel увеличивает скорость ПО и результаты бенчмарков
Как и прочие «грязные» методы захвата/удержания рыночной доли типа подкупа и/или шантажа вендоров железа и разработчиков софта, с целью продвижения и выставления в более выгодном свете своей продукции.
Как я помню, там именно так:
если(это_наш_процессор && есть_новые_инструкции)
{
новые инструкции;
}
иначе
{
старые инструкции;
}
То есть вставляется дополнительное условие, которое не нужно.
Checking for vendor ID is an affirmative action. The grey area is whether they are optimizing for specific CPU models or for specific instruction sets. There is only one case where they distinguish between different CPU models that have the same instruction set, namely Pentium 4 versus Pentium M. In most cases, however, they use the same code path for both, or the two paths are identical or almost identical. The distinction may be unimportant from a technical point of view, but it may give Intel a legal excuse for claiming that they are optimizing for specific CPU models.(с) Agner Fog.
Да, именно так и работает весь код который использует SIMD. Процессоров Intel с разными версиями и подверсиями SSE и AVX не меньше чем AMD, их тоже как-то нужно друг от друга отличать.
См. табличку по моей ссылке выше с подменой CPU-ID — такой «хак» ускорял MATLAB еще 10 лет назад, со временем только степень ускорения/замедления растет, т.к. расширенные наборы команд в современных процессорах играют все возрастающую роль при интенсивных вычислениях.
Более того, правильная программа обязана именно так определять расширения. Сразу 2 примера почему:
1. Расширения можно конфигурировать из BIOS. Что лично видел: расширение AES можно включать/выключать на серверной материнке с Xeon архитектуры Westmere.
2. Виртуализация. Для виртуальной машины можно «собрать» любой процессор.
Возможно проводится оптимизация кода (это на прямую не связано с использованием расширений) на разные архитектуры, но, применительно к компилятору значило бы генерацию кода сразу для десятков архитектур, что маловероятно. Вот для какой-нить библиотеки и её «горячих» частей это применимо, но если взять компилятор Интел, тут такое не прокатит. Ну верней, судя по коментам, они «типа» оптимизировали под всего две архитектуры.
Наличие SSE, AVX определяется одинаково на Intel и AMD, одинаковой инструкцией.Инструкция, может быть, и одинакова… а результат — разный. Вот просто банальная инструкция RSQRTPS — даёт разные результаты на Intel и AMD.
И то и другое — соотвествует спецификации, но в некоторых случаях приходится-таки писать код, проверяющий производителя CPU.
А Intel, похоже, решил что поддерживать всё это для своих CPU — это разумно, а для чужих — не очень…
nslookup www.felixcloutier.com
Addresses: 2a03:b0c0:3:e0::1b:1
167.99.137.12
reestr.rublacklist.net/search/?q=167.99.137.12
Ну знаете, потребитель компилятора наверно не ожидает, что код на выходе будет проверять расовую чистоту процессора.
Неотъемлемое право потребителя в условиях рыночной экономики — выбор любого другого компилятора из числа имеющихся. Или написание своего.
Ryzen CPU caution: The AMD Ryzen 5 and 7 CPUs sold up until at least November 2017 have serious bugs which make any software run very unreliably. One experiences spurious segfaults and system hangs from building as well as running GMP (or any other CPU intensive stuff).
И вы даже не представляете себе, какие ограничения накладываются на математические функции, в той же самой библиотеке Intel может быть инструкции AMD просто реально не подходят для этого уровня точности, которой требуется от этой библиотеки или выходят за некоторые пределы, которые они поставили на них. Или тупо не исполняются, после определенной последовательности инструкций. Один только тот бред с функцией синуса в intel процессарах чего стоил. Это же был просто абзац. После этого библиотека языка си для Linux (glibc) резко перешла на собственную имплементацию (программную) алгоритма синуса косинуса… В то время как у Microsoft изначально был программный алгоритм, поскольку они обо всём знали)) randomascii.wordpress.com/2014/10/09/intel-underestimates-error-bounds-by-1-3-quintillion
На хабре о той истории есть весьма забавная статья.
Про Ryzen до ноября 2017 — слишком громкое заявление. Отзыва процессоров не было. Проблемы наблюдались только в специфичных условиях под линуксом.
От fsin отказались ещё потому, что програмная реализация работала быстрее, а весь стек x87 уже давно стараются избегать.
Если говорить на чистоту, то у матлаба не было объективных причин отключать оптимизацию для процессоров AMD, т.к. как показывает хак — всё начинает работать быстрее с сохранением результатов.
каждые год-два всегда будет выходить что-то более новое и более быстрое
пусть и обещают что zen 3 будет ещё более суровым апгрейдом, чем zen 2, нужно смотреть на то, какой будет профит от такой покупки сейчас (нужно определиться, это НУЖНО купить или ХОЧЕТСЯ купить. Разница велика).
грубо говоря — если сэкономленное, благодаря такой трате, время, принесёт больше денег, чем будет потрачено на апгрейд, то можно брать хоть сейчас/подождать до января 64-х ядерник. Ну и в следующем году делать такой-же выбор)
Дешёвые материнки, 16 довольно быстрых ядер, и ценник не такой кусачий, как у потокорвателей.
С другой стороны, в том же компиляторе хаскеля параллелизм так себе. Хотя так вот повод поковырять появится.Не знаете в чём причина? ФП преподносится как инструмент для многопоточности
А есть что почитать про это?
Я в последнее время увлекся темой, и судя по документации, все там вроде как неплохо с параллелизмом.
DDR5 на Zen4 вместе с полной сменой платформы и еще не скоро — ближе к концу 2021 года скорее всего. Уже мем даже появился: ждем пять пятерок. AM5 платформа, 5я поколение ядер (из-за Zen+, процессоры на Zen4 будут 5м поколением), 5нм литография, DDR5, PCI-E 5.0.
Маркетологи потом это явно как-нибудь обыграют.
Да и по кэшу я не помню, чтобы там обещали что-то серьезное в Zen3 как dartraiden пишет. Там по кэшу одно из главных отличий будет это слияние ядер/L3 кеша в более крупные блоки. С 4 ядер + 16 MB L3 до 8 ядер + 32 MB L3 в одном логическом модуле.
Но это серьезно может повлиять только на ПО сильно зависящее от межьядерных взаимодействий и активного обмена данными между ними — намного больше таких обменов будет происходить через общий L3 кэш без копирования данных, вместо их пересылки по не слишком быстрой межъядерной шине IF.
В частности сильно игрушки могут подтянуться, в по котором сейчас довольно заметное отставание от Intel сохраняется, не смотря на большее количество ядер и того что каждое ядро в отдельности (в однопоточных нагрузках) уже как минимум не слабее чем у Intel, а часть и побыстрее. Но вот при плотном межъядерном взаимодействии пока похуже.
На остальных видах ПО вроде больших прибавок ожидать не откуда. Так процентов 10% выжмут за счет общих оптимизаций архитектуры и небольшой прибавки частот.
Да и по кэшу я не помню, чтобы там обещали что-то серьезное в Zen3twitter.com/BitsAndChipsEng/status/1198543242989637632
twitter.com/BitsAndChipsEng/status/1198558756323414016
Ну и 2000 ГБ/с — ребята явно суммарную ПС по всем ядрам считают. А по всем ядрам больше 2000 ГБ/c и Zen2 (в виде 3950X) прямо сейчас легко выдать может:
16 ядер * 32 байт/такт (256бит шина) * >4 ГГц рабочей частоты = >2000 ГБ/с ПС L1 кэша
По 2й ему там же сразу в комментариях пишут — скорее всего известное слияние блоков кэшей принял за его увеличение. Вместо 16 МБ на модуль, будет по 32 МБ на модуль (это уже вполне официальная информация), как бы +100%. Но в рассчете на ядро остаются те же самые 4 МБ, т.к. ядра будут в модули по 8 штук вместо 4 штук объединяться. Хотя насчет объема могут в каких-то моделях и увеличить, это достаточно просто меняется.
Но сомнительно — и так только что (при переходе от Zen+ к Zen2) объем кэша уже удвоили и он сейчас намного больше, чем может предложить конкурент.
Маркетологи потом это явно как-нибудь обыграют.
А уж как отыграют это маркетологи одной торговой сети…
Там завезут свои баги.
А текущие системы можно будет использовать, как обычно, через полгода после выхода на рекомендованый ценник. Как раз отловят баги в софте и прошивках, отшлифуют...
в исполнении AMD.
/irony
Но если это будет очередной refresh refresh lake за конский ценник c +5% быстродействия — сами виноваты, тут уже никакие $3 млрд на маркетинг не спасут.
Да и я не настолько техногик, чтоб покупать то же самое, но на $1500 дороже, зато с другим индексом. /irony
Всегда остаётся шанс на новую архитектуру, а не на костыли к старой.
PS возможно, если сейчас выкатить новую архитектуру на старом техпроцессе — будет только хуже или не останется киллер-фич на следующее поколение и маркетинг против?
Если Intel натянет нормальную архитектуру на «старый» (т.е. более дешёвый и отработанный техпроцесс) — это достойно аплодисментов.вы думаете intel уделывал amd десять лет за счет… чего? Сейчас intel со своей архитектурой сделали если не всё что могли, то уже близко к тому. А вот новый техпроцесс им нужен позарез — с ним они и ядер больше запихать смогут, и еще мегагерц на 500 разогнать, т.е. даже без заметных изменений в архитектуре должен быть существенный прирост производительности. По кр. мере так было у AMD
Но сама то новая микроархитектура (которая Sunny Cove) не такая же новая. Т.е. по сравнению с вообще практически не отличающимися между собой «лейками»(в которых только играли с частотой, количеством ядер и включением/отключением HT), она конечно новая. Но это не слишком большой апгрейд все того же iCore примерно каким был в своей время выход Skylake по сравнению с Broadwell.
И судя по уже имеющихся ее представителями (в виде мобильных чипов Ice Lake) не особо то много прибавки дать может по сравнению с «лейками».
При сравнении 1к1, 1 ядро против 1 ядра и на одинаковая частота (т.е. IPC) судя по тестам она примерно равна текущим Zen2 или только на несколько % получше. Т.е. по отношению к Zen3 уже будет уступать. А именно с Zen3 ей и придется конкурировать к моменту когда соответствующие процессоры выйдут.
Сейчас в 10нм мобильном варианте против Zen2 на 7нм получается примерно где-то на равных выступать. (не считая того что AMD предлагает либо больше ядер за ту же цену, либо ниже цену).
Но вот после того как Zen2 проапгрейдится до Zen3, попутно с обычных 7нм TSMC перейдет на 7нм+ (с использованием EUV литографии, что дает показатели уже лучше чем текущие 10нм Intel), а вот Intel наоборот сделает обратный «даунгрейд» с 10нм до 14нм++ ничего хорошего получиться не не может: только медленней, намного горячее и прожорливее (т.к. отставание по IPC опять попытаются скомпенсировать более высокими частотами, помимо повышенного потребления из-за отставания в тех. процессе) и при этом возможно все еще дороже чем у конкурента.
При сравнении 1к1, 1 ядро против 1 ядра и на одинаковая частота (т.е. IPC) судя по тестам она примерно равна текущим Zen2 или только на несколько % получше. Т.е. по отношению к Zen3 уже будет уступатьэто спекуляция, не факт. И не забывайте что частота даже сейчас не одинаковая, с заметным отрывом Intel'ей, а на новом техпроцессе, в связи с уменьшением TDP, станет возможно её еще подразогнать.
а вот Intel наоборот сделает обратный «даунгрейд» с 10нм до 14нм++ ничего хорошего получиться не не может: только медленней, намного горячее и прожорливеепочему вы так уверены что они будут это делать?
т.к. отставание по IPC опять попытаются скомпенсировать более высокими частотами, помимо повышенного потребления из-за отставания в тех. процессеоткуда вы взяли отставание по IPC? Да и вообще речь о новом техпроцессе у Intel, а вы только 14нм и приводите
Новый техпроцесс Intel (7нм + PICE5) только в бумажных анонсах, как и чипы на 10нм, зато 14нм i10xxx с 300Вт+ под загрузкой уже у тестеров.
Хотя, пусть года 3 AMD подзарабортает, может какая-то вменяемая конкуренция на рынке процессоров будет, а не только за low/middle сегменты.
Более высокой частотой более низкий IPC оно пока что компенсируется, это да.
А 14нм потому что сама Intel уже анонсировала следующее поколение процессоров тоже на 14нм. И что даже следующую после этого архитектуру (после Sunny Cove — Willow Cove) изначально разработанную для 10нм для настольных моделей будет портировать с 10нм обратно на 14нм (обратный «тик») — то что получится планируют назвать «Rocket Lake». Этот момент собственно выше и обсуждали в ветке на которую я отвечал.
Потому что с производством 10нм у них до сих пор какие-то глобальные проблемы продолжаются и их еле хватает на производство мобильных версий процессоров для ноутбуков. На десктоп и в сервера производства на 10нм — не хватает и там еще года полтора будут 14нм для производства использовать.
Потому что с производством 10нм у них до сих пор какие-то глобальные проблемы продолжаются и их еле хватает на производство мобильных версий процессоров для ноутбуков.Маленькое замечение — никаких процессоров для ноутбуков тоже нету. Они насобирали буквально считанные тысячи Cannon Lake процов пару лет назад — чисто чтобы сделать вид, что с 10nm процессорами «всё на мази».
Очковтирательство в духе позднего СССР.
По хорошему счёту им нужно было пропустить 10nm и сконцентрироваться на 7nm — но это остатьс на 2-3 года вообще без конкурентоспособных процов… что всё равно в итоге и произошло…
Но следующее поколение «Ice Lake» (именно оно пока единственное на новой микроархитектуре — Sunny Cove), которое прошлой осенью запустили сейчас уже более-менее производится. Объемы пока тоже небольшие и еще явно не достаточные, но уже все-таки не фикция как был Cannon Lake.
И все что в ближайшие полтора-два года они смогут выжать из 10нм будет уходить в ноутбуки, где низкое потребление/низкий нагрев очень важные параметры.
А на десктоп и в севера будут дальше продолжать делать «печки» на 14нм.
В результате на декстоп думаю 10нм вообще может не попасть, а сразу потом с 14нм на 7нм переводить будут.
«I have color distortion on HEVC media files if i HW transcode to a different video resolution. This is a already known issue.»
Этому багу в драйвере Интела уже 1.5 года и решения нет.
Смотреть как 4 ядра не справляются с 1080p откровенно скучно.
И вторую видеокарту я могу прокинуть через passthrough как реальное устройство в виртуалку, тогда i915 останется работа, для которой он предназначен — показывать черно-белую консоль.
Я уж молчу про то, что работающий 24x7 маленький сервер может решать куда-как больше задач, чем только хранить файлы.
Ryzen 2200GE получаются, больше чем уверен, путем даунклокинга Ryzen 2200G
384 ядра и 2 Гб памяти — 4К вытянет, в поток на клиента только суметь потом засунуть. Это для игр «средненко», а на транскодинге у меня карты 5 летней давности справлялись.
Пойду гуглить бенчмарки обоих вариантов.
70Вт под пассивом, нерегулярные нагрузки, затрудненная вентиляция…
Отвал чипа и расслой текстолита передают привет и обещают заглянуть в гости! С ними обязательно заглянет их добрый приятель — разрыв межсоединений.
Могу припомнить в продаже у нас еще и 750 Ti KalmX, модель аж 2014 года.
Вероятно, они предприняли меры, чтобы они не умирали в пределах гарантийного срока.
пожимает плечами
Могу припомнить стопки мертвых видюх начиная с FX5200/Radeon9600. От ремонта я отошел уже на Kepler.
Вероятно, они предприняли меры, чтобы они не умирали в пределах гарантийного срока.
Разумеется. Но кто сказал, что эти меры призваны защищать покупателя?
Не умирают совсем только те, которые или почти не используются или, или обдуваются снаружи, или предусмотрительно даунвольтятся, даунклокаются и не выпускаются (для охлада как на фото) за пределы ~35÷40 Вт на карту (~25÷30 Вт на чип).
Или, если говорить о температурах, работающие 24/7 строго в установившемся режиме, в окне ~50÷65 градусов, без пиков.
Физику не обмануть ни маркетологам, ни царям.
Но 1050 (Ti или нет) все равно будет лучше, чем 1030 при прочих равных, хотя бы за счет 128-бит шины и большего количества CU (пассивки 1030 зачастую даже не 64 а 32 бит, по состоянию на полтора года назад, по крайней мере).
Не умирают совсем только те, которые или почти не используются или, или обдуваются снаружи, или предусмотрительно даунвольтятся, даунклокаются и не выпускаются (для охлада как на фото) за пределы ~35÷40 Вт на карту (~25÷30 Вт на чип).Такое ощущение, что со времён первого Pentium процессоры и видеочипы работают в режиме заводского разгона, и почему-то это считается нормой.
Нет.
Но между интересами производителя, продавца и пользователя — две большие разницы.
И последние для первых двух зачастую не играют никакой роли. Имхо, иначе рынок бы регулировался одной лишь обратной связью, а не государством + рекламой; не было бы борьбы за право ремонта и гонок устаревания.
Такое ощущение, что со времён первого Pentium процессоры и видеочипы работают в режиме заводского разгона, и почему-то это считается нормой.Нет, не разгон. При разгоне дохнет сам чип. Этого у современных чипов без серьёзного повышения напряженая над тем, что рекомендовал производитель, почти не бывает.
Выход же из строя происходит из-за проблем с охлаждением… причём не процессора, а припоя! В эпоху до RoHS только «гениальному» Джобсу удалось добиться того, чтобы компьютеры из-за этого выходили из строя, но после того, как перешли на бессвинцовые припои… всё стало гораздо грустнее.
Если напряжение и частоту не повышать, а понижать, температура пациента приходит в норму и даже некачественная термопаста и припой не приводят к деградации кристалла. Да, с некоторой потерей производительности по отношению к экземпляру, исходно пребывавшему в заводском разгоне.
Или с пассивными супербашнями, типа Heligon HE02, DEEPCOOL Lucifer K2 Gamer Storm или Zalman FX100 Fanless (и приличным корпусом, где не задерживается тепло).
Если вам что-то рендерить, считать, компилировать, гонять кластер из тысячи докер-контейнеров для дебага и т.д. и т.п. и такое количество ядер/потоков поможет заметно улучшить вашу производительность и (как следствие) начать зарабатывать больше денег — то смысл есть.
Вопрос только с какой начинкой? С 24 ядрами и до 65Вт? Таких (пока) нет.
А вот какие есть:
AMD Ryzen 5 3500 6C/6T 3.6-4.1GHz (nominal/turbo), no graphics. TDP 65W
AMD Ryzen 5 3400G 4C/8T 3.7-4.2GHz, Vega 11. TDP 65W.
Если с интегрированным видео, то Ryzen 5 3400G (4 ядра, 8 потоков, 3.7-4.2 ГГц).
Я просто ещё люблю иногда видео пережать ffmpeg'ом, а тут 4k размеры уже давят… Интересно, можно ли будет засунуть нормальный кулер в MINI-ITX корпус. Да, мсье знает толк :)
Рулетки, типа «измерений с AR» сейчас есть даже в телефоне, возьмите да померьте, после сравните с высотой вентилятора.
Однако этот воздушный охлад справляется так себе, если верить первым обзорам. Там кто-то в многопоточной нагрузке прожаривает проц до 80+ градусов на топовом ноктуа. При том что для Zen+ рекомендовали удерживаться в рамках 70, какие рекомендации у 3000 серии еще нужно поискать.
С другой стороны моему Mac Pro G5 QUAD уже больше 10 лет, а он вполне себе нормально работает, несмотря на жидкостное охлаждение…
Насколько я понимаю, AIO фактически не протекают, но там может накрыться помпа.
Что касается custom loop, то там все зависит от рук. Лично я свою AIO буду в ближайшее время менять на кастомную СВО, потому что скачки нагрузки и температур раскручивают без нужды вентиляторы. Хочу, чтобы они реагировали на изменение температуры воды, а не процессора, который по температуре прыгает с 40 до 65 и обратно по банальному обновлению страницы.
За счёт того, что это инженерник, частота неcколько ниже, чем у обычного i9-9900, зато и температура ниже. В остальном ничуть не хуже серийных образцов: архитектура у Intel уже вылизана, инженерники имеют такой же степпинг как и серийные процы и даже микрокоды у них совместимы. Т.е. не будет никаких аппаратных сюрпризов, как, например, было с инженерниками Skylake, которые были довольно «сырыми».
Можно даже извратиться и засунуть его в материнку на 100/200 чипсете, топовые материнки на Z170 сейчас сливают по цене дешевых H310, а по качеству компонентов и начинке первые, конечно, намного лучше.
На конец 2019-го думаю цена как за «грязь» (условно)
Кстати, в обычных десктопных задачах, браузер, ворд и т.п. между i5-2500k на 4,4ГГц и 3700X разницы на глаз нет вообще. Если есть, надо с секундомером сидеть. В игрушках да, видно в некоторых, которые упирались в 2500k.
И между Sata SSD и в три раза более быстрым NVMe разницы на глаз тоже нет, если не копировать непрерывно большие файлы.
Есть. Там не в скорости дело, а в том, что это другой протокол. У него очередь команд (и их несколько параллельно причем) и латентность (PCI express, же, это наносекунды) меньше. Вам может казаться, это фигня, но это очень существенно, причем WINDOWS все еще не до конца может воспользоваться этими приемуществами. Там столько еше допиливать /потирает ручки/. А вот Linux уже допилила.
Вам может казаться, это фигня, но это очень существенно, причем WINDOWS все еще не до конца может воспользоваться этими приемуществами.Может и хорошо, что не может? А то в Windows как-то это кончается примерно так: «Ура, наша новейшая версия Windows 10 2909 освоила инетрвейс M.5 — теперь с вашим крутейшим и новейшим накопителем вы сможете получить такую же отзывчивость интерфейса, как и на Windows 95 чертверть века назад на компьютере с HDD!».
получить такую же отзывчивость интерфейса,
Эх. Бесят меня такие комменты, у меня винда грузится за 5.8 секунды до рабочего стола, это благодаря nvme. Думаете фигня? Да, linux при тех же услових грузится за 0.5 секунды, но это меня, думаете, волнует?)) И компиляция? Она увы не завит от GPU. Только от проца и скорости памяти.
Не будет никакого M.5Это сегодняшние планы.
Когда Pci express обновляется (до 4.0, например) это автоматически обновляет NVME скорость.Когда PCI четверть века назад вводили — разговоры были такие же. Вот точь-в-точь.
Типа, у вас сейчас 33MHz, но сервера умеют в 66MHz, а там — будет вам и 133MHz и больше. Прошло 10 лет… и оказалось — что нет, так не будет. Нужен новый интерфейс.
Эх. Бесят меня такие комменты, у меня винда грузится за 5.8 секунды до рабочего стола, это благодаря nvme. Думаете фигня?Нет, не фигня. Это столько же, сколько Windows 95 грузилась на рубеже веков на свеженьком (тогда) Pentium III в 1GHz или DOS на PS/2 с 286м процессором без HDD вообще — лет за 10 до того. То есть вы, скорее, подтверждаете мою правоту, чем опровергаете её.
И компиляция? Она увы не завит от GPU. Только от проца и скорости памяти.Тут да — Borland C++ 3.1 на каком-нибудь 386м компилировал заметно дольше. И даже Turbo Pascal 3.0. Тут есть заметный прогресс.
А вот Windows — умудряется сожрать все ресурсы всех современных разработок в области железа… с нулевым полезным выхлопом.
Когда PCI четверть века назад вводили — разговоры были такие же.
Это не разговоры, уже можно купить. (На у.маркете.)
3dnews.ru/995849/pci-express-4-0-for-nvme-ssd
Что за M.5? Нет такого.
Windows — умудряется сожрать все ресурсы всех
Я пользуюсь clang и gcc для windows. Не заметил разницы с linux. Впрочем, вы правы, например, wddm модель графического драйвера накладывает огромные ограничения на blender, которые можно убрать если перевести карту в tesla mode (nvidia).
Это столько же, сколько Windows 95 грузилась на рубеже веков на свеженьком (тогда) Pentium III
Не верю)))))))) Может, вы и правы, конечно. Но я только за последние несколько лет действительно почувствовал полностью не лагающую систему, что на Андроиде, что на Windows.
Что за M.5? Нет такого.А Windows 10 2909 уже есть?
Не верю)))))))) Может, вы и правы, конечно. Но я только за последние несколько лет действительно почувствовал полностью не лагающую систему, что на Андроиде, что на Windows.А там всё просто. Когда Windows 95 выходила — самым быстрым процессором был Pentium (ещё оригинальный, без MMX) на 200MHz (а у большинства пользователей был явно не он). И памяти на большинстве материнок можно было установить не более 64MiB. А начало XXI века — это уже Tualatin на 1.4GHz и 512MiB памяти. Поверьте, семикратное ускорение и такое же увеличение памяти и дискового пространства — придавало очень заметно резвости.
Вот только вышедшая тогда же Windows XP сожрала весь этот запас… и дальше история повторялась.
Только вот в случае с Windows NT (оригинальной, не всякие модные Windows NT 4.0 или XP) я хотя бы понимаю за что плачу… но вот в случае с Windows 10, извините… нет.
Вот чего умеет Windows 10 такого, что требовало увеличение памяти со 128MiB до 1GB? И 16GB вместо 1.5GB на диске? Это, как бы, почти десятикратное увеличение требований… ради чего? Вот что такого ресурсоёмкого там добавилось и зачем оно там?
И еще тот факт, что по умолчанию, windows пережимает jpeg обои до 80% от качества. Это ж полный абзац. Ну сколько там памяти нужно, чтобы блин 5 Мб 4K обоев правильно отобразить? answers.microsoft.com/en-us/windows/forum/windows8_1-desktop/any-word-from-microsoft-on-the-horrible-wallpaper/64369bb2-bf28-4601-aba0-1197ea205eb2?page=4&auth=1
А тот факт, что до сих пор нету полного управления цветом на рабочем столе и во всех приложениях, как это сделано в MacOS? Это ж единственное, в чем macOS лучше, но фиг там, не чинят. Худо бедно hdr и dolby vision сделали и все. Причем вторую еще и нефициально и ломалась она уже не раз.
Navigate to «Computer\HKEY_CURRENT_USER\Control Panel\Desktop»
Right click «Desktop» folder -> «New» -> «DWORD (32-Bit) Value» (use 32-bit value for BOTH 32 and 64-bit systems)
Name new Value name: «JPEGImportQuality»
Set Value Data to 100
Set Base to Hexadecimal
Причём это было сделано одним человеком.
Вот чего умеет Windows 10 такого, что требовало увеличение памяти со 128MiB до 1GB? И 16GB вместо 1.5GB на диске? Это, как бы, почти десятикратное увеличение требований… ради чего? Вот что такого ресурсоёмкого там добавилось и зачем оно там?
Заменить Windows 10 на любую другую аналогичную ОС и тоже окажется правдой.
Впрочем увеличение потребности в 3-4 раза за 20 лет лет и 10-20 раз — это немного разные вещи.
9x не умела нормального кеширования, поэтому объем памяти выше 64МБ для нее был бессмысленен.
Винтукей же требовал не менее 96 для комфортной работы с типичным набором софта. А XP, так и вовсе, от 128.
Но впечатления от Tualatin@166&DDR, конечно, сильные. Даже Northwood не мог с ним конкурировать, ибо при схожей производительности кушал существенно больше.
Простите, а этот вывод
а же XP до первого сервиса пака не умела в USB 2.0.
А после второго потребовала для работы уже в районе 2 гигов
вы сделали из вот этого:
на 1сп комп уровня 2 пенька, если не ошибаюсь, с метрами 64 оперативки и 32 метрами видюхой
утверждения?
Ничего, что во времена XP таких объемов не наблюдалось на рынке и даже приснопамятная Vista часто довольствовалась 0,5÷1ГБ?
Не говоря уже, что DX10 был прибит к свисте исключительно софтово, и умельцы пропатчили эту дурость для работы с более вменяемыми ОС почти сразу. Как и DX11.
Почему NT5 ела больше памяти и проца, чем 9x было понятно — другая архитектура, NTFS, безопасность. Почему NT5.1/5.2 ела больше памяти — тоже было понятно: растровые темы, windows restore и еще пяток столь же "нужных" нововведений.
Потрясающий воображение жор памяти и повальное обрастание ненужными сервисами и фоновой активностью началось как раз с Vista, которую пропихивали примерно так же как и 10, если учесть повальное отсутствие широкополосного интернета тогда.
На самом деле под капотом современных ОС было тьма изменений.
Например, корректный flush буферов, чтобы все смонтированные ФС перед hybernate стали консистентными? Включая привнесенную 8 гибернацию ядра? Или планировщик, сохраняющий активные нити за одним и тем же ядром и не прерывающий их ради мелких задач?
Этим проблемам, между прочим, скоро 20 лет стукнет.
Гибернация ядра, кстати, в сочетании с гибридным спящим режимом — просто убойное комбо. В прямом смысле — два дня, и аккумулятор в нулину.
Или, может, в винду завесли нативно Compose/Level3?
Нет, это 24-ядерный CPU, а я не могу сдвинуть курсор и Почему для открытия меню Windows читает один файл сто тысяч раз?
Изменений много, да. А можно мне билд из другой, менее ебагнутой ветки? Где из коробки давно работает UTF-8, отключаются ненужные сервисы, вместо получасового жевания соплей sysrestore есть нормальный snapshot/rollback, где на быстром SSD нет сношения диска в течении нескольких минут "ускоряющими кэшами", из-за которых комп жестко тупит?
Не поймите меня правильно, вдруг. Но много
это мера количественная. О качестве
проделанной работы она не говорит ровным счетом ничего.
подскажете как их поставить на версию 9x про которую был разговор выше?
Если бы вы обратились лет хотя бы на 10 раньше — помог бы и поделился ссылками на пропатченные бинарники. Сейчас у меня в хозяйстве другие системы, с другими проблемами. Могу дать направление, в котором копал сам: Crysis x64 dx10 xp. Если, конечно, вам все еще актуально.
Гугл находит массу следов в прошлом. Например, вот эта статья.
виста была намного устойчивей и безопаснее XP
Не знаю, как насчет безопасности. Надеюсь, вы не про UAC, с его вечным Непонятная фигня пытается сделать непонятную фигню. Если действие запущено вами, то продолжайте.
и находящейся рядом то ли самой галочкой, то ли ссылкой на место, где можно
поставить галочку Перестать иметь пользователю мозг запросами с непонятной фигней
?
Потому как антивирус и файрволл пришли в XP с SP2, в 2004, а релиз [Vista состоялся](https://ru.wikipedia.org/wiki/Windows_Vista] в 2007.
Но вот стоны о нестабильности и тормознутости Vista я помню отлично. А нефиг в lowend пихать то, что едва ворочается в middle. Их поубавилось только с ростом мощностей ПК и выходом сервиспаков.
Ну а про то, что XP — последняя винда, которую элементарно можно было поднять переустановкой с CD поверх (при нерабочей системе), вот это я помню хорошо. После нее уже были жизненно необходимыми акронисы и прочее ПО с автономной загрузкой.
вы, видимо, забыли как XP хейтерили на момент выхода
Основная причина хейта XP звучала так: у меня тут копролит, последний раз драйвера под который производитель писал к 95 или 98 (даже не SE), и те сырые и ни разу не WDM
или у меня 486 и 8МБ памяти, 95 же работала!
Примерно тоже касалось и x64. С поддерживаемым железом и на подходящих аппетитам конфигурациях не было никаких проблем, как и у почти любой другой ОС.
Я ее гонял от превью до x64 SP2 и от P166MMX/128M до i5-3570K/16GB, в нескольких сотнях инсталляций.
Так что вопрос к тому, что большая часть программистов, к сожалению, реализуют как они хотят и видят в меру их умений, а не как это правильнее было бы…
Согласен. Просто, в случае с виндой все осложняется тем, что нет и не будет того самого анестезиолога. Или любого другого неравнодушного.
Увы, проприетарщина, ничего личного.
Ещё раз, вопрос был про линейку 9х, то бишь 95 и 98)
Mea culpa!
Прочитал как 9.0x (в смысле, 9.0c и иже с ним)
А вот как я проклинал зверьXP
У, это притча во языцех! Впрочем, я тогда сам с nLite и sfx-установщиками развлекался. Иначе не собрать 12 ПК за смену. А так 3-4 на установке, пока один скручиваешь как раз очередной заканчивает.
ещё больше было проблем из-за того, что программописатели никогда никаких гайдов не придерживались и привыкли пихать куда попало файлы программ
Всегда удивлялся, специально народ такой софт ищет, что ли?
Подавляющей части софта вообще не нужна инсталляция, распаковать да установить ассоциации reg-файлом.
Но, вообще-то, к выходу XP актуальный софт был уже очень даже в курсе, потому как писать в %ProgramFiles% не из-под админа нельзя было еще со времен NT4, а в корпоративном сегменте уже больше года существовала 2000-я. Так что каких-либо правок требовали только некоторые системного уровня утилиты, вроде SpeedDisk, Nero, снифферов да антивирусов.
Проблемы были только с совсем странным, вроде всяких SlyDVD (драйвер, де-факто несовместимый с ASPI), некоторых bluetooth (с этим нормально стало уже 8.1, и то...), не-WDM сканеров и звуковух, ISA-видеокартами и всяческим другим legacy.
Это, кстати, про безопасность висты и выше относительно XP.
Ну а если отдавать юзеру админа… Вспоминается
#define TRUE FALSE //happy debugging!
Тогда как все вопросы обычных пользователей в Линуксе спускали на тормоза классическим «у меня такая же нога, но не болит». Собственно, большая часть возникаемых проблем у пользователя на линуксе на форумах вызывает постоянные ответы в таком духе.
Хм. На зарубежных форумах более другая атмосфера, и иностранцы гораздо любезнее отвечают даже на тупые вопросы.
А ЛОР да, такой… Он для кича и прокачивания ЧСВ, а не для жалоб и поисков решения проблем.
Тем не менее, переименованный dx10 renderer от Crysis на XP c записями в реестре и подкинутыми в нужные места либами (то, что должен делать штатный инсталлятор) запускался и работал.
Другое дело, что dx10 так толком никем и не поддерживался долгое время. Тот же Crysis Warhead вернулся обратно к dx9.
askubuntu.com/questions/597052/can-not-boot-anymore-after-a-boot-repair
Впрочем, теперь моя 2080 Ti и мой wifi Tp-link Archer T9UH не работают (хотя на оба есть драйвера). Эххх.
У обоих SSD в моей системе, SATA3 и PCIE3.0, read access time по тестам ~100 мкс. Windows это или сами накопители, с практической точки зрения результат одинаковый.
Кроме этого m.2 накопители бывают разные, есть накопители которые на самом деле обычные SATA накопители, а есть нормальные pci express.
Что такое read access time?
Предполагаю, что read latency. Очень надеюсь, что оно измеряется, а не как-то высчитывается через iops.
Тестировать их нужно с помощью fio.
Как только fio можно будет просто взять и запустить на Windows лишних танцев.
Кроме этого m.2 накопители бывают разные
Поэтому специально пишу конкретно: SATA-3 vs PCI-E 3.0.
Энергопотребление, тепловая мощность процессора и рассеиваемя мощность системы охлаждение это разные вещи, пусть и тесно связанные.Всё, что процессор потребляет, но не отдаёт, выделяется в тепло, которое нужно рассеять, а т.к. силовых выходов, насколько я помню, у ЦП нет, то разница между потреблением и тепловыделением с практической стороны несущественна.
разница между потреблением и тепловыделением с практической стороны несущественна.Если всё что, меньше двух раз считать несущественной разницей — тогда да. Но вообще процеccор с TDP в 95W может легко под 180W потреблять.
Всё, что процессор потребляет, но не отдаёт, выделяется в тепло
позвольте поинтересоваться, куда он девает то, что не отдаёт в тепло?
А разница по шуму скорее всего из-за разных материнских плат с разными профилями управления кулером.
Более приличные кулера с медной вставкой и даже медными тепловыми трубками в 3м поколении тоже кладутся, только как и в 2м модель с тепловыми трубками идет только начиная с 8 ядерных моделей (2700/3700х) к ним в комплекте идет уже довольно приличный Wraith Prism, вот такой:
Так что в плане комплектации никакого удешевления — есть 3 модели боксовых кулеров, которые прикладываются в порядке возрастая «ядерности» и TDP процессора.
Я брал боксовый, т.к. в тот момент оемный был почти за ту же цену. Если пробовать включить какой-то разгон, родной кулер воет и температура на максимуме. Если использовать в стоке, то кулер справляется нормально, а обороты можно подстроить, чтобы в обычном режиме было неслышно. Под нагрузкой же шумноват, на мой вкус. Не так, как родной от i5-2500k, но всё-таки.
Хотя, вчера новую версию BIOS накатил, которая обещала снижение температуры, вечером перетестить стоит.
Но боксовый кулер нешумный, это да.
Тоже долго выбирал между 3600/3700/3800, решил, что лучше пусть будут +2 ядра, чем не будут, ибо последний раз менял процессор в 2012 и тоже думал «ладно, возьму пока 6 ядер, если что — сменю проц».
Верней выше 3600 можно, но нужно шаманить с частотой Infinity Fabric.
Цитата от AMD: «Infinity Fabric tied to memory clock at 1:1 ratio up to DDR4-3733»
Выше становится 2:1 и скорость IF падает ( но рекорды с 4600+ по памяти можно ставить)
1t/2tНе признал, что это делитель так обозначается.
Делитель частоты шины вроде на большинстве плат автоматом всегда, в зависимости от выставленных частот памяти.
Ваш процессор андервольтится и укладывается в 65W.
Все более младшие модели камней тоже так умеют, но может потребоваться обновление биоса.
Intel всё равно побеждает в производительности на ядроПростите, откуда же тогда меньшие показатели в однопоточных тестах?
Топовые AMD и так сметают с полок, реальных процессоров не найти, вон, в Германии по 1200 евро скупили всё при рекомендованной цене $750.
PS Intel в играх убедительно побеждает в разрешении FullHD, но покупать топовое железо, чтоб потом щуриться в fullhd и радоваться 230 fps с Intel, а не жалким 200 у AMD — ну так себе идея. Хотя не буду спорить о вкусах.
Если говорить про i9-9900KS — то там все, конечно, интереснее. Если вы посмотрите тесты — то в single thread он не сильно опережает тот же самый 3950X (там единицы процентов, что в общем и ожидается от 5 Ghz турбо-буста у i9 против 4.7 Ghz турбо-буста у 3950X). Однако когда речь заходит об одновременном бусте на много ядер — i9 справляется гораздо лучше чем 3950x, потому что ядер у второго больше, а от питания и тепловыделения никуда не денешься. Собственно он справляется сильно лучше и уже упомянутого 10980XE по тем же причинам.
Поэтому этот самый топовый i9 ожидаемо сильно уступает практически во всех productivity тестах, однако берет верх в определенных кейсах, где задействовано некоторое количество ядер, но не все. Большинство этих кейсов в многочисленных уже проведенных и опубликованных тестах складываются во время тестирования FPS в играх. При этом игра игре рознь — например в Battlefield 5 или новом Tomb Rider разницы в FPS, судя по тестам, почти нет. А в Far Cry 5 3950x очень сильно уступает i9.
Я это все к тому что интел сейчас побеждает не в «производительности на ядро» (тут как раз примерно паритет), а в некоторых отдельно взятых случаях специфической нагрузки, характерной, например, для не новых движков компьютерных игр, которые скорее всего специально точились под 2/4 ядра.
И вывод в целом такой — для игр — если за максимальные деньги, то да, пока все еще intel. В более бюджетном сегменте или для серьезной работы… Есть вопросы.
Есть набор игр, которые жрут проц неадекватно результату, или как принято говорить — "плохая оптимизация". Например, тот самый Far Cry 5, или Assassin's Creed Odyssey (которого ещё подтормаживает денува, и почему-то наличие оверлеев может дать разницу в десятки фпс, а наличие установленного Afterburner выносит фпс либо роняет игру вообще), или GTA V (он тормозит традиционно, начиная уже с лаунчера). Или например, Warhammer Total War 2 (которому ещё желательно оперативки свободной гигов 12 и SSD). Кажется, если люди там понаписали какого-то лютого говнокода, от которого кровь стынет в жилах, то дальше от него можно ожидать всё что угодно — и оптимизацию под конкретные процессоры (у Ассасина с этим были проблемы на релизе — они забыли указать, что игра идёт только на свежих процессорах), и оптимизацию под конкретные видеокарты (те, что в компах у разработчиков), и "магические" объемы оперативной памяти после которых становится хорошо, и чёрта в ступе
Сам мучался несколько десятков часов, пока не раскусил
Может и в других играх поможет
(А я думал, приоритет вообще ни на что не влияет)
Смотрите, ядро Zen на 43% быстее ядра Zen+:
cpu.userbenchmark.com/Compare/AMD-Ryzen-7-1800X-vs-AMD-Ryzen-3-3200U/3916vsm771805
Я же просто указал на то, что преобладание 9700K над 10980XE в однопотоке — нормальное явление.
Для старых движков игр это так, для новых — многопоточность важнее быстрых ядер, для будущих портов с консолей, в которых те же 8 ядер /16 потоков — и подавно.
Intel брать не стал — ибо дороже и мне не нравится, когда за один и тот же сокет, только другой, каждый раз пытаются снять денег.
Intel, перестань.
PS в целевом разрешении 1440p для игр разница между amd/intel в пару кадров несущественна.
www.tomshardware.com/reviews/amd-threadripper-3970x-review/2
а так, рекомендуется вода 360 мм
У их предшественников он был всего 29 ГБ/с (т.е. многоканальность памяти реально нужна только при многопоточных алгоритмах запросов данных, а м.б. это ограничение даже и на ядро, а не на поток и SMT тут тогда тоже не решает) а у Интел — так вообще всего около 14.
www.tomshardware.com/reviews/amd-threadripper-3970x-review/4
даже разогнанный 28 ядерник не в силах одолеть 24 ядра тредриппера, интересно.
протестировать бы в MS SQL, Postgres и т.п. типа для бюджетного сервера выбрать.
Интересно получается, когда конкурент есть. И ядер добавили, и цену снизили. Даже дерьможвачку на припой заменили(мой 4790к без скальпинга просто вис в прайм95, даже не тротлился). Просто сказка какая.
Интел могли бы от бюджета R/D 1/8 к примеру взять и направить на разработку чиплетных вариантов, техпроцесс заказывать на стороне опять же.
Тесты Ryzen Threadripper 3960X и 3970X показали, что это действительно революционные CPU