Pull to refresh

Comments 295

Король умер, да здравствует король!
Слава королю!
Только ему бы еще научиться писать Оранжевые и Красные книги, к моменту выхода процессора на рынок, а не 10-15 лет спустя.
А каким инструментом посмотреть картинку на 185 Мб?
Любым просмотрщиком изображений. Да даже пеинтом.
Любым просмотрщиком фото. У меня даже встроенным Windows Photo Viewer эта картинка открылась, отобразилась быстро, даже пол чашки чаю не успел выпить.
IrfanView осилил, скушав 930 МБ, потом сбросив до 230. Утверждает, что в изображении 12230*6664 пикселей, вероятно упростил как-то себе задачу.
ImageJ, шустрый, экономный, всеядный. Но использовать его для ручного редактирования почти невозможно.

Nomacs, Ryzen 2600:


[INFO] "/home/<username>/Downloads/TRcIOD.jpg" loaded in 7 sec
А каким инструментом посмотреть картинку на 185 Мб?
Символичный вопрос… А я всё думал для чего создают процессоры подобные сабжу )))) Видимо чтобы было комфортно просматривать статью про него же )))
Топологию процессора всё же, вероятно, комфортнее просматривать в CAD'е, в котором его конструировали. Заодно и информативнее. В предоставленном jpg файле и чёткость частично утеряна, и видны массивные следы перетрава. В общем, для фотообоев не годится. Что, впрочем, не мешает уважать проведенную работу.
FastStone задумался, но открыл секунд за 8. Масштабирует тоже в течении нескольких секунд. в остальном норм. Памяти отъедает 1гб.
Mathlab, предоставленный Intel.
Маленький хак с Reddit, который в разы ускоряет mathlab на AMD.
Бойтесь данайцев, дары приносящих?
PS архитектурные отличия Intel в mathlab, судя по reddit — это включение наборов расширенных инструкций выше SSE1 для синих процессоров. Хак включает их и для красных.

Честная конкуренция. Интел сделал в своей библиотеке использование неэффективных инструкций на процессоре конкурента, а потом использовал это для бенчмарка. Позор, что Интел вместо того, чтобы улучшить процессоры, использует такие грязные способы обмана потребителя.

Причем использует с очень давних времен:
Придётся ли Intel убрать из компилятора функцию, намеренно выдающую плохой код для процессоров AMD?


Подмена CPU ID с AMD или VIA на Intel увеличивает скорость ПО и результаты бенчмарков
Ускоряем ПО заменой одной строчки содержащей наименование производителя процессора
image

Как и прочие «грязные» методы захвата/удержания рыночной доли типа подкупа и/или шантажа вендоров железа и разработчиков софта, с целью продвижения и выставления в более выгодном свете своей продукции.
Компиляторов Intel разработала определённо больше, чем AMD. Как и средств оптимизации кода, как для CPU, так и для GPU. И это, вроде бы, неплохо. Использование собственных разработок для продвижения собственных разработок не так неплохо, но пока что не наказуемо. C'est la vie.
Ну знаете, потребитель компилятора наверно не ожидает, что код на выходе будет проверять расовую чистоту процессора.

Как я помню, там именно так:
если(это_наш_процессор && есть_новые_инструкции)
{
новые инструкции;
}
иначе
{
старые инструкции;
}

То есть вставляется дополнительное условие, которое не нужно.
UFO just landed and posted this here
Ну чтот я очень сомневаюсь, что там варианты на десятки микроархитектур.
Да да, по куче моделей процессоров:
Checking for vendor ID is an affirmative action. The grey area is whether they are optimizing for specific CPU models or for specific instruction sets. There is only one case where they distinguish between different CPU models that have the same instruction set, namely Pentium 4 versus Pentium M. In most cases, however, they use the same code path for both, or the two paths are identical or almost identical. The distinction may be unimportant from a technical point of view, but it may give Intel a legal excuse for claiming that they are optimizing for specific CPU models.
(с) Agner Fog.
UFO just landed and posted this here

Да, именно так и работает весь код который использует SIMD. Процессоров Intel с разными версиями и подверсиями SSE и AVX не меньше чем AMD, их тоже как-то нужно друг от друга отличать.

Ну только это было в Zen, и, если мне память не изменяет, быстро исправлено исправлениями микрокода/новыми БИОС. Но включить «забыли» и на Zen+, и на Zen2, и судя по описанию что вижу на реддите, вообще на всех процессорах АМД, в том числе более старых, чем Zen, с правильным FMA3.
Ну это классическая история про то, что запачкаться проще, чем отмыться.
Слабая отмазка. Они занимались с тем же самым (отключали поддержку расширенных наборов команд, на всех НЕ ител процессорах, тем самым намеренно замедляя их работу) еще когда Zen даже в проекте не было. Как FMA3 инструкций.
См. табличку по моей ссылке выше с подменой CPU-ID — такой «хак» ускорял MATLAB еще 10 лет назад, со временем только степень ускорения/замедления растет, т.к. расширенные наборы команд в современных процессорах играют все возрастающую роль при интенсивных вычислениях.
Нет конечно. Наличие SSE, AVX определяется одинаково на Intel и AMD, одинаковой инструкцией. И если, например, AVX есть, то все инструкции AVX есть. Это не происходит как вы думаете: «ага, определили архитектуру Sandy Bridge, значит AVX есть, AVX2 нет».
Более того, правильная программа обязана именно так определять расширения. Сразу 2 примера почему:
1. Расширения можно конфигурировать из BIOS. Что лично видел: расширение AES можно включать/выключать на серверной материнке с Xeon архитектуры Westmere.
2. Виртуализация. Для виртуальной машины можно «собрать» любой процессор.

Возможно проводится оптимизация кода (это на прямую не связано с использованием расширений) на разные архитектуры, но, применительно к компилятору значило бы генерацию кода сразу для десятков архитектур, что маловероятно. Вот для какой-нить библиотеки и её «горячих» частей это применимо, но если взять компилятор Интел, тут такое не прокатит. Ну верней, судя по коментам, они «типа» оптимизировали под всего две архитектуры.
Определяется может быть и одинаково, вот только на процессорах AMD определённая последовательность инструкций вызывала его hang. И усе. А ещё они исполняются разное количество времени на AMD и Intel))
Я когда-то давно искал «а как memcpy люди делают», и где-то в дебрях исходников линукса нашел замечательный кусок ассемблерного кода с кучей вообще непонятно зачем нужных инструкций и комментарием типа «а этот код написал чувак, который принимал участие в разработке интеловских процессоров, мы не знаем почему, но если хоть что-то поменять — скорость сильно падает». Соответственно для интела у матлаба может быть схожая картина.
Наличие SSE, AVX определяется одинаково на Intel и AMD, одинаковой инструкцией.
Инструкция, может быть, и одинакова… а результат — разный. Вот просто банальная инструкция RSQRTPS — даёт разные результаты на Intel и AMD.

И то и другое — соотвествует спецификации, но в некоторых случаях приходится-таки писать код, проверяющий производителя CPU.

А Intel, похоже, решил что поддерживать всё это для своих CPU — это разумно, а для чужих — не очень…
Как-бы можно узнать о поддержке расширенных наборов инструкций независимо от «расы» процессора. Мы даже на нашем проекте хотели часть ядра перекомпилить под разные наборы инструкций и линковать динамически, чтобы была возможность воспользоваться преимуществами SSE/AVX тем, у кого эти инструкции поддерживаются. Даже речь не шла о том, чтобы проверять вендора.
UFO just landed and posted this here
Это делает mtune. Просто если не указать mtune, оно принимается равным march. Можно сделать, например, -march=skylake -mtune=generic.
А можно подробнее об этом? Или хотя-бы ссылку на место, где возможно провести акт rtfm?
UFO just landed and posted this here
Ну знаете, потребитель компилятора наверно не ожидает, что код на выходе будет проверять расовую чистоту процессора.

Неотъемлемое право потребителя в условиях рыночной экономики — выбор любого другого компилятора из числа имеющихся. Или написание своего.

В случае Матлаба никакой потребитель ничего не проверяет, это вам не опен-сорс.

Все это конечно, круто. Но… не забываем что matlab (без h, кстати) это математическое приложение, если AMD допустила ошибку в имплементации этих инструкций (или нестандартное поведение), то как бы… A это случалось уже не однажды gmplib.org
Ryzen CPU caution: The AMD Ryzen 5 and 7 CPUs sold up until at least November 2017 have serious bugs which make any software run very unreliably. One experiences spurious segfaults and system hangs from building as well as running GMP (or any other CPU intensive stuff).

И вы даже не представляете себе, какие ограничения накладываются на математические функции, в той же самой библиотеке Intel может быть инструкции AMD просто реально не подходят для этого уровня точности, которой требуется от этой библиотеки или выходят за некоторые пределы, которые они поставили на них. Или тупо не исполняются, после определенной последовательности инструкций. Один только тот бред с функцией синуса в intel процессарах чего стоил. Это же был просто абзац. После этого библиотека языка си для Linux (glibc) резко перешла на собственную имплементацию (программную) алгоритма синуса косинуса… В то время как у Microsoft изначально был программный алгоритм, поскольку они обо всём знали)) randomascii.wordpress.com/2014/10/09/intel-underestimates-error-bounds-by-1-3-quintillion
Есть подобные сообщения про другие компиляторы, например gcc или clang? Если нет, то это весомый аргумент против Intel.
Где я хоть что-то сказал про compiler? Они же с открытым кодом. И мы говорили не про компилятор, а про библиотеку math от intel.
Ну… Не бывает непогрешимых. У Intell тоже (как минимум однажды) случился хардварный баг, на который они попытались не обращать внимания, но баг нашли и покарали внесли поправки в некоторые компиляторы.
На хабре о той истории есть весьма забавная статья.
Что значит «точности»? Есть IEEE 754, которым следует AMD и Intel. Более того, x86-64 инструкции Intel лицензирует у AMD, как и AMD другие инструкции у них.
Про Ryzen до ноября 2017 — слишком громкое заявление. Отзыва процессоров не было. Проблемы наблюдались только в специфичных условиях под линуксом.
От fsin отказались ещё потому, что програмная реализация работала быстрее, а весь стек x87 уже давно стараются избегать.
Если говорить на чистоту, то у матлаба не было объективных причин отключать оптимизацию для процессоров AMD, т.к. как показывает хак — всё начинает работать быстрее с сохранением результатов.
Ммм. Ещё раз: в данном случае баг был в том, что если несколько раз исполнить определенную последовательность инструкций, то это приводило к halt процессора. Синий экран, kernel oops. Но потом это исправили.
А по какой причине была использована разная память для разных процессоров? Благодаря этому тесты сложно назвать объективными (как и многие моменты в статье).
Я и не утверждаю что разница в результатах будет огромна, но это же очевидный повод придраться. Тот факт, что тестировщики использовали худшую память для проигрывающего процессора, как бы намекает на то, что целью статьи было именно показать ниткохоронители в хорошем свете, а не провести объективные тесты (хотя я этого не утверждаю). При том, что можно было поставить для интела лучшую память и получить примерно ту же ситуацию в результатах, хоть и с меньшим разрывом.
UFO just landed and posted this here
Может быть много чего, только ведь об этом ни слова не сказано. И теперь известно лишь, что к интелу поставили низкочастотную память.
Что интересно, по спецификации intel должен работать с DDR4-2933, amd — DDR4-3200.
Взяли для теста память на градацию выше для каждого процессора.
UFO just landed and posted this here
UFO just landed and posted this here
Ну, такое
каждые год-два всегда будет выходить что-то более новое и более быстрое
пусть и обещают что zen 3 будет ещё более суровым апгрейдом, чем zen 2, нужно смотреть на то, какой будет профит от такой покупки сейчас (нужно определиться, это НУЖНО купить или ХОЧЕТСЯ купить. Разница велика).
грубо говоря — если сэкономленное, благодаря такой трате, время, принесёт больше денег, чем будет потрачено на апгрейд, то можно брать хоть сейчас/подождать до января 64-х ядерник. Ну и в следующем году делать такой-же выбор)
UFO just landed and posted this here
Тогда стоит посмотреть на рузен 3950x
Дешёвые материнки, 16 довольно быстрых ядер, и ценник не такой кусачий, как у потокорвателей.
UFO just landed and posted this here
В случае с обычным десктопным процом — имхо, можно брать лучшее, что есть на данный момент. Они не настолько дороги, особенно при том, что это будет апгрейд аж с 3930k. Threadripper 3000 является огромным апгрейдом сам по себе, ибо по бенчам (при равном количестве ядер) он обходит предыдущее поколение довольно значительно, порой даже на 60% (это не шутка, в некоторых(!) бенчах так и происходит), но стоит безумно дорого.
P.s.
Сам я сижу на 1920x, и когда я его взял в замен своему I5 8600HQ, я почувствовал будто сел в космический корабль. Даже при том, что он довольно стар, он отлично справляется с нагрузкой при разработке VSIX-плагина под Visual Studio (что требует запуска минимум двух инстансов), а так-же, при прототипировании, позволяет мне писать очень жадные и слабо оптимизированые алгоритмы на питоне, давая возможность развивать идею и совершать итерации в несколько раз быстрее даже при таком раскладе, и не думать о том как мне оптимизировать этот прототип раньше времени, просто чтобы дождаться фидбека от прототипа раньше, чем через час. Да, я просто заваливаю задачу грубой силой, и иметь такую возможность просто офигенно. При этом, 1920x даже в подмётки не годится рузену 3950x. Мне страшно представить что будет с 3990x)

С другой стороны, в том же компиляторе хаскеля параллелизм так себе. Хотя так вот повод поковырять появится.
Не знаете в чём причина? ФП преподносится как инструмент для многопоточности
UFO just landed and posted this here
> в том же компиляторе хаскеля параллелизм так себе

А есть что почитать про это?
Я в последнее время увлекся темой, и судя по документации, все там вроде как неплохо с параллелизмом.
UFO just landed and posted this here
Обещают существенно увеличить пропускную способность кэша, равно как и его объём. Ну и производительность на ядро, конечно, повысят.
UFO just landed and posted this here
Не будет DDR-5. Он же под ту же самую платформу (AM4) планируется, включая обратную совместимость. Откуда новой памяти взяться?
DDR5 на Zen4 вместе с полной сменой платформы и еще не скоро — ближе к концу 2021 года скорее всего. Уже мем даже появился: ждем пять пятерок. AM5 платформа, 5я поколение ядер (из-за Zen+, процессоры на Zen4 будут 5м поколением), 5нм литография, DDR5, PCI-E 5.0.
Маркетологи потом это явно как-нибудь обыграют.

Да и по кэшу я не помню, чтобы там обещали что-то серьезное в Zen3 как dartraiden пишет. Там по кэшу одно из главных отличий будет это слияние ядер/L3 кеша в более крупные блоки. С 4 ядер + 16 MB L3 до 8 ядер + 32 MB L3 в одном логическом модуле.
Слайд от AMD Zen2/Zen3
image


Но это серьезно может повлиять только на ПО сильно зависящее от межьядерных взаимодействий и активного обмена данными между ними — намного больше таких обменов будет происходить через общий L3 кэш без копирования данных, вместо их пересылки по не слишком быстрой межъядерной шине IF.
В частности сильно игрушки могут подтянуться, в по котором сейчас довольно заметное отставание от Intel сохраняется, не смотря на большее количество ядер и того что каждое ядро в отдельности (в однопоточных нагрузках) уже как минимум не слабее чем у Intel, а часть и побыстрее. Но вот при плотном межъядерном взаимодействии пока похуже.

На остальных видах ПО вроде больших прибавок ожидать не откуда. Так процентов 10% выжмут за счет общих оптимизаций архитектуры и небольшой прибавки частот.
Очень сомнительные слухи, особенно 1я. L1 кэш работает на частоте ядра, а в ней прибавки больше 5% максимум 10% ждать не откуда. А если бы кроме частоты увеличивали разрядность шины и количество портов ввода-вывода, то это сразу все +100%, а не +40%.

Ну и 2000 ГБ/с — ребята явно суммарную ПС по всем ядрам считают. А по всем ядрам больше 2000 ГБ/c и Zen2 (в виде 3950X) прямо сейчас легко выдать может:
16 ядер * 32 байт/такт (256бит шина) * >4 ГГц рабочей частоты = >2000 ГБ/с ПС L1 кэша

По 2й ему там же сразу в комментариях пишут — скорее всего известное слияние блоков кэшей принял за его увеличение. Вместо 16 МБ на модуль, будет по 32 МБ на модуль (это уже вполне официальная информация), как бы +100%. Но в рассчете на ядро остаются те же самые 4 МБ, т.к. ядра будут в модули по 8 штук вместо 4 штук объединяться. Хотя насчет объема могут в каких-то моделях и увеличить, это достаточно просто меняется.
Но сомнительно — и так только что (при переходе от Zen+ к Zen2) объем кэша уже удвоили и он сейчас намного больше, чем может предложить конкурент.
Маркетологи потом это явно как-нибудь обыграют.

А уж как отыграют это маркетологи одной торговой сети…
Даже интересно как? 5^W 10 ядер 5 гигов ddr5?
У серверных процессоров на Zen3 поддержки DDR5 не заявлено, следовательно, наверняка её не будет и у десктопов.
UFO just landed and posted this here
Я так понял что длительную поддержку обещали только для AM4, причем еще когда о тредриперах даже слухов не было. Собственно всё как обещали, но для тредриперов новый сокет. Так что теоретически, если будет смысл, возможна смена сокета и памяти для HEDT и серверов. Тем более что контроллер памяти на отдельном от ядер чиплете живет, что упрощает. Конечно это все гадание на кофейной гуще, но все же отметать такую возможность не стоит.
UFO just landed and posted this here
Я решил подождать: в Zen 3 отполируют текущую архитектуру и софт под неё, появятся доступные и холодные чипсеты с PCIe 4.0 и может подтянутся OEM с готовыми рабочими станциями.

Там завезут свои баги.
А текущие системы можно будет использовать, как обычно, через полгода после выхода на рекомендованый ценник. Как раз отловят баги в софте и прошивках, отшлифуют...

UFO just landed and posted this here
Как показывают предыдущие годы с Intel — не вечно, скоро придёт сытая пора с ежегодной коррекцией производительности на +9% и refreshed unnamed lake refresh plus
в исполнении AMD.
/irony
UFO just landed and posted this here
у AMD тоже бюджет разработки не резиновый, к тому ж 10нм Intel = 7нм TSMC.
Верно — но 7нм TSMC уже есть, а 10нм Intel… нету. Ну то есть Intel говорит, что «всё на мази», будет «уже совсем скоро»… но после истории с Cannon Lake… им уже никто не верит.
UFO just landed and posted this here
Если Intel натянет нормальную архитектуру на «старый» (т.е. более дешёвый и отработанный техпроцесс) — это достойно аплодисментов.
Но если это будет очередной refresh refresh lake за конский ценник c +5% быстродействия — сами виноваты, тут уже никакие $3 млрд на маркетинг не спасут.
UFO just landed and posted this here
Сейчас как-то 270+ ватт с 9900к отводят же.
Да и я не настолько техногик, чтоб покупать то же самое, но на $1500 дороже, зато с другим индексом. /irony
UFO just landed and posted this here
В разгоне — 250вт+, судя по THG (последний слайд на странице).
Всегда остаётся шанс на новую архитектуру, а не на костыли к старой.
PS возможно, если сейчас выкатить новую архитектуру на старом техпроцессе — будет только хуже или не останется киллер-фич на следующее поколение и маркетинг против?
Тепловыделение пропорционально частоте и квадрату напряжения. Современный 14++ процесс мог бы отличаться от 10 незначительно в плане рабочего напряжения, соответственно, и тепловыделения.
Если Intel натянет нормальную архитектуру на «старый» (т.е. более дешёвый и отработанный техпроцесс) — это достойно аплодисментов.
вы думаете intel уделывал amd десять лет за счет… чего? Сейчас intel со своей архитектурой сделали если не всё что могли, то уже близко к тому. А вот новый техпроцесс им нужен позарез — с ним они и ядер больше запихать смогут, и еще мегагерц на 500 разогнать, т.е. даже без заметных изменений в архитектуре должен быть существенный прирост производительности. По кр. мере так было у AMD
А сколько нужно/ожидаете от новый архитектуры? Натянуть-то наверняка натянет нормально, хотя обратных портов на более «толстый» тех. процесс я что-то не припомню, но по-идее это дело не хитрое.
Но сама то новая микроархитектура (которая Sunny Cove) не такая же новая. Т.е. по сравнению с вообще практически не отличающимися между собой «лейками»(в которых только играли с частотой, количеством ядер и включением/отключением HT), она конечно новая. Но это не слишком большой апгрейд все того же iCore примерно каким был в своей время выход Skylake по сравнению с Broadwell.

И судя по уже имеющихся ее представителями (в виде мобильных чипов Ice Lake) не особо то много прибавки дать может по сравнению с «лейками».

При сравнении 1к1, 1 ядро против 1 ядра и на одинаковая частота (т.е. IPC) судя по тестам она примерно равна текущим Zen2 или только на несколько % получше. Т.е. по отношению к Zen3 уже будет уступать. А именно с Zen3 ей и придется конкурировать к моменту когда соответствующие процессоры выйдут.

Сейчас в 10нм мобильном варианте против Zen2 на 7нм получается примерно где-то на равных выступать. (не считая того что AMD предлагает либо больше ядер за ту же цену, либо ниже цену).

Но вот после того как Zen2 проапгрейдится до Zen3, попутно с обычных 7нм TSMC перейдет на 7нм+ (с использованием EUV литографии, что дает показатели уже лучше чем текущие 10нм Intel), а вот Intel наоборот сделает обратный «даунгрейд» с 10нм до 14нм++ ничего хорошего получиться не не может: только медленней, намного горячее и прожорливее (т.к. отставание по IPC опять попытаются скомпенсировать более высокими частотами, помимо повышенного потребления из-за отставания в тех. процессе) и при этом возможно все еще дороже чем у конкурента.
При сравнении 1к1, 1 ядро против 1 ядра и на одинаковая частота (т.е. IPC) судя по тестам она примерно равна текущим Zen2 или только на несколько % получше. Т.е. по отношению к Zen3 уже будет уступать
это спекуляция, не факт. И не забывайте что частота даже сейчас не одинаковая, с заметным отрывом Intel'ей, а на новом техпроцессе, в связи с уменьшением TDP, станет возможно её еще подразогнать.
а вот Intel наоборот сделает обратный «даунгрейд» с 10нм до 14нм++ ничего хорошего получиться не не может: только медленней, намного горячее и прожорливее
почему вы так уверены что они будут это делать?
т.к. отставание по IPC опять попытаются скомпенсировать более высокими частотами, помимо повышенного потребления из-за отставания в тех. процессе
откуда вы взяли отставание по IPC? Да и вообще речь о новом техпроцессе у Intel, а вы только 14нм и приводите
Потому что интел уже анонсировал новое поколение на 14нм?
Новый техпроцесс Intel (7нм + PICE5) только в бумажных анонсах, как и чипы на 10нм, зато 14нм i10xxx с 300Вт+ под загрузкой уже у тестеров.
Хотя, пусть года 3 AMD подзарабортает, может какая-то вменяемая конкуренция на рынке процессоров будет, а не только за low/middle сегменты.
Отставание по IPC видно из почти всех тестов, одинаковое кол-во ядер, одинаковая частота = результаты по производительности ниже, хоть и немного. Единственное заметное исключение игры — и то потому, что им важнее низкие задержки при активном доступе к памяти, чем IPC ядер. А вот контроллер памяти у Intel лучше. И задержки обмена данными между ядрами пониже (правда при числе ядер не более 4)
Более высокой частотой более низкий IPC оно пока что компенсируется, это да.

А 14нм потому что сама Intel уже анонсировала следующее поколение процессоров тоже на 14нм. И что даже следующую после этого архитектуру (после Sunny Cove — Willow Cove) изначально разработанную для 10нм для настольных моделей будет портировать с 10нм обратно на 14нм (обратный «тик») — то что получится планируют назвать «Rocket Lake». Этот момент собственно выше и обсуждали в ветке на которую я отвечал.

Потому что с производством 10нм у них до сих пор какие-то глобальные проблемы продолжаются и их еле хватает на производство мобильных версий процессоров для ноутбуков. На десктоп и в сервера производства на 10нм — не хватает и там еще года полтора будут 14нм для производства использовать.
Потому что с производством 10нм у них до сих пор какие-то глобальные проблемы продолжаются и их еле хватает на производство мобильных версий процессоров для ноутбуков.
Маленькое замечение — никаких процессоров для ноутбуков тоже нету. Они насобирали буквально считанные тысячи Cannon Lake процов пару лет назад — чисто чтобы сделать вид, что с 10nm процессорами «всё на мази».

Очковтирательство в духе позднего СССР.

По хорошему счёту им нужно было пропустить 10nm и сконцентрироваться на 7nm — но это остатьс на 2-3 года вообще без конкурентоспособных процов… что всё равно в итоге и произошло…
Хм, ну «Cannon Lake» действительно можно считать были «бумажными» процессорами: реальных поставок практически не было, кое-как наскребли немного только чтобы было что на презентациях показать и обзорщикам на тесты образцы выслать. Поставить так сказать галочку в «дорожной карте» — мол 10нм запущены хотя бы в 2018 году (вместо 2016 по плану).

Но следующее поколение «Ice Lake» (именно оно пока единственное на новой микроархитектуре — Sunny Cove), которое прошлой осенью запустили сейчас уже более-менее производится. Объемы пока тоже небольшие и еще явно не достаточные, но уже все-таки не фикция как был Cannon Lake.

И все что в ближайшие полтора-два года они смогут выжать из 10нм будет уходить в ноутбуки, где низкое потребление/низкий нагрев очень важные параметры.
А на десктоп и в севера будут дальше продолжать делать «печки» на 14нм.

В результате на декстоп думаю 10нм вообще может не попасть, а сразу потом с 14нм на 7нм переводить будут.
Так и 100 штук на дороге не валяются, хотя согласен, что это больше вкусовщина как с покупкой интеловских процессоров поколения «так» (когда эта схема ещё работала).
UFO just landed and posted this here
Брать домой процессор за почти $4000 неинтересно и где-то даже глупо, зная, что через пару лет цена упадет в три раза. А вот дождаться micro-ATX с камнем из последнего абзаца в котором три нормальных графических ядра — вот это стоит замены в домашнем NAS.
Так 2200G уже давно есть
Причем он раза в 2 лучше атлона и по процу и по видюхе.
TDP 65W — без кулера нечего даже мечтать запустить. а тот же J4205 есть готовые microATX, где вместо долбанутой графики от Intel внутри камня можно воткнуть GPU тоже с пассивным охлаждением и получить надежную электронику без движущихся частей.
Чем плоха графика интел? А главное, нафик внешняя видеокарта (ещё одна точка отказа, притом весьма вероятного, плюс стоит дороже процессора) в сервере, где она будет использоваться только по большим праздникам?
Речь шла про домашний NAS, где видеокарта вполне может использоваться для транскодирования видео через plex, например. При этом встроенное видео в этом поколении работает не слишком корректно в таких задачах. А мощности самого процессора на программное (де)кодирование уже не хватает.
«I have color distortion on HEVC media files if i HW transcode to a different video resolution. This is a already known issue.»
Этому багу в драйвере Интела уже 1.5 года и решения нет.
UFO just landed and posted this here
Всем плоха, если сравнивать с любой другой. Все эти «решения для бедных» работают только в простых задачах. Как ниже написали в комментах: домашний NAS перекодирует видео постоянно — а это, на минуточку, не одна а две затратные операции над потоком в real-time.
Смотреть как 4 ядра не справляются с 1080p откровенно скучно.
И вторую видеокарту я могу прокинуть через passthrough как реальное устройство в виртуалку, тогда i915 останется работа, для которой он предназначен — показывать черно-белую консоль.

Я уж молчу про то, что работающий 24x7 маленький сервер может решать куда-как больше задач, чем только хранить файлы.
я думаю, путем манипуляций, можно получить 35W.
Ryzen 2200GE получаются, больше чем уверен, путем даунклокинга Ryzen 2200G
Интересно будет сравнить по производительности со средненькой картой NVIDIA с пассивкой на транскодировании видео. Внутренний голос говорит, что попробовать стоит.
UFO just landed and posted this here

384 ядра и 2 Гб памяти — 4К вытянет, в поток на клиента только суметь потом засунуть. Это для игр «средненко», а на транскодинге у меня карты 5 летней давности справлялись.
Пойду гуглить бенчмарки обоих вариантов.
UFO just landed and posted this here
UFO just landed and posted this here
Теоретически можно попросить кого-то переслать :)
Хотя если вы живете напротив Нарвы, тогда, наверное, проще и съездить…

70Вт под пассивом, нерегулярные нагрузки, затрудненная вентиляция…
Отвал чипа и расслой текстолита передают привет и обещают заглянуть в гости! С ними обязательно заглянет их добрый приятель — разрыв межсоединений.

Они не первый год продают видеокарты с этим охлаждением.
Могу припомнить в продаже у нас еще и 750 Ti KalmX, модель аж 2014 года.
Вероятно, они предприняли меры, чтобы они не умирали в пределах гарантийного срока.

пожимает плечами
Могу припомнить стопки мертвых видюх начиная с FX5200/Radeon9600. От ремонта я отошел уже на Kepler.


Вероятно, они предприняли меры, чтобы они не умирали в пределах гарантийного срока.

Разумеется. Но кто сказал, что эти меры призваны защищать покупателя?


Не умирают совсем только те, которые или почти не используются или, или обдуваются снаружи, или предусмотрительно даунвольтятся, даунклокаются и не выпускаются (для охлада как на фото) за пределы ~35÷40 Вт на карту (~25÷30 Вт на чип).
Или, если говорить о температурах, работающие 24/7 строго в установившемся режиме, в окне ~50÷65 градусов, без пиков.
Физику не обмануть ни маркетологам, ни царям.


Но 1050 (Ti или нет) все равно будет лучше, чем 1030 при прочих равных, хотя бы за счет 128-бит шины и большего количества CU (пассивки 1030 зачастую даже не 64 а 32 бит, по состоянию на полтора года назад, по крайней мере).

Не умирают совсем только те, которые или почти не используются или, или обдуваются снаружи, или предусмотрительно даунвольтятся, даунклокаются и не выпускаются (для охлада как на фото) за пределы ~35÷40 Вт на карту (~25÷30 Вт на чип).
Такое ощущение, что со времён первого Pentium процессоры и видеочипы работают в режиме заводского разгона, и почему-то это считается нормой.

Нет.
Но между интересами производителя, продавца и пользователя — две большие разницы.


И последние для первых двух зачастую не играют никакой роли. Имхо, иначе рынок бы регулировался одной лишь обратной связью, а не государством + рекламой; не было бы борьбы за право ремонта и гонок устаревания.

UFO just landed and posted this here

Ну, я, все-таки, надеюсь, что аудитория хабра понимает, что делать бэкапы надо до того, как жесткий перестанет определяться, а не после.

Такое ощущение, что со времён первого Pentium процессоры и видеочипы работают в режиме заводского разгона, и почему-то это считается нормой.
Нет, не разгон. При разгоне дохнет сам чип. Этого у современных чипов без серьёзного повышения напряженая над тем, что рекомендовал производитель, почти не бывает.

Выход же из строя происходит из-за проблем с охлаждением… причём не процессора, а припоя! В эпоху до RoHS только «гениальному» Джобсу удалось добиться того, чтобы компьютеры из-за этого выходили из строя, но после того, как перешли на бессвинцовые припои… всё стало гораздо грустнее.
Видеокарты с заводским разгоном — те, у которых при улучшенной системе охлаждения увеличивается производительность за счёт превышения рекомендованных частот и напряжений.
Если напряжение и частоту не повышать, а понижать, температура пациента приходит в норму и даже некачественная термопаста и припой не приводят к деградации кристалла. Да, с некоторой потерей производительности по отношению к экземпляру, исходно пребывавшему в заводском разгоне.
Работают, но с хорошим охлаждением.
Или с пассивными супербашнями, типа Heligon HE02, DEEPCOOL Lucifer K2 Gamer Storm или Zalman FX100 Fanless (и приличным корпусом, где не задерживается тепло).
Вся статья про HEDT-процессоры. Это в общем и целом больше рабочие станции. Если вы дома исключительно играете в игры и смотрите кино — то конечно их нет смысла брать. Тем более в играх себя все равно i9-9900ks пока что лучше всех чувствует, при стоимости меньше чем даже у помянутого в статье 3950x.

Если вам что-то рендерить, считать, компилировать, гонять кластер из тысячи докер-контейнеров для дебага и т.д. и т.п. и такое количество ядер/потоков поможет заметно улучшить вашу производительность и (как следствие) начать зарабатывать больше денег — то смысл есть.
У меня для такого в уголке стоит сервер собранный на коленке, два е5-2670… Наверное помедленнее будет. Но там весь сервер обошелся дешевле одного процессора из статьи… В общем, странная, как по мне, железка получилась.
Ну мощные дорогие процы — это пререготива для использования с софтом, где лицензирование идет по ядрам, и каждое «разрешенное» ядро будет стоить десятки тысяч долларов…
Странное замечание. У меня в машине лежит Raspberry pi за 35 долларов, что ж теперь? Это процы под конкретные задачи с адекватной рынку стоимостью.
Два e5-2670 будут медленнее даже одного 3950X, MSRP которого — 750$. Б\У зеоны, конечно, широко известный в узких кругах лайфхак, но не делает Threadripper странной железкой. Странно было бы собирать в 2019-2020 году систему на двух 2670 — ну разве что для экспериментов.
Это если считать стоимость процессоров б/у с условного алиэкспресс и не беспокоиться по этому поводу. Если брать новым, то один такой обойдётся примерно в 15 т.р., а на арк.интел на момент запуска его стоимость указана в $1552.
Athlon 200GE(220GE/240GE) давно доступен.
Я вот собираю ПК для ребенка, мечусь между Athlon 200GE и Ryzen 3 1200 — цена примерно одинакова, чего взять для неновых игрушек? Видюха валяется NV730, думаю, пока хватит.
UFO just landed and posted this here
Ну если NV730 значит GT 730, то думаю Ryzen 3 1200 сойдёт, если прям экономить до упора.
Ну если что попроще ищите, то посмотрите лучше в сторону авито и б\у с али. Там за цену нового 1200 можно найти что-то гораздо интереснее — 1600 или даже 2600. Б\у CPU брать совсем не страшно в отличие от видюх или hdd.
UFO just landed and posted this here
Всё равно буду домой брать что-то с TDP не больше 65W. А таких процов от AMD вроде нет?
Почему нет, есть.
Вопрос только с какой начинкой? С 24 ядрами и до 65Вт? Таких (пока) нет.
А вот какие есть:
AMD Ryzen 5 3500 6C/6T 3.6-4.1GHz (nominal/turbo), no graphics. TDP 65W
AMD Ryzen 5 3400G 4C/8T 3.7-4.2GHz, Vega 11. TDP 65W.
Есть. Топовый — Ryzen 7 3700X (8 ядер, 16 потоков, 3.6-4.4 ГГц).
Если с интегрированным видео, то Ryzen 5 3400G (4 ядра, 8 потоков, 3.7-4.2 ГГц).
Да, похоже, 3700X мне реально подойдёт, спасибо!
Собираю себе ПК на базе такого, товарищ уже собрал. Скажу по личному опыту — 65 Вт там малореальные, родной Wraith Prism из коробки (заявлено 105 Вт отводимого тепла) справляется очень так себе. Товарищ в итоге сменил СО на Deepcool gammax 400, я, с прицелом на возможную замену процессора в будущем на условный ryzen 4950 взял NH-U12A. Если реально надо 65 Вт — то 3600 без х или 3500.
UFO just landed and posted this here
Да, я к тому, что слепо ориентироваться на цифры нет смысла. Предупредить, во избежание разочарований.
Ага, спасибо за замечание!
Я просто ещё люблю иногда видео пережать ffmpeg'ом, а тут 4k размеры уже давят… Интересно, можно ли будет засунуть нормальный кулер в MINI-ITX корпус. Да, мсье знает толк :)
UFO just landed and posted this here
Ой, ну кажется, что он слишком высокий. Прям будет упираться снизу в крышку корпуса MINI-ITX.
Что значит «кажется»?
Рулетки, типа «измерений с AR» сейчас есть даже в телефоне, возьмите да померьте, после сравните с высотой вентилятора.
У меня ведь там текущий комп трудится. И с точностью до миллиметра сложно померить, не видя «головы проца». Я померил линейкой, около 5мм останется, похоже.
мм… А на сайтах посмотреть цифры не поможет?
У меня корпус «Sharkoon QB One», производитель пишет «Max. Height CPU Cooler — 15.0 cm». Но верхний вентилятор на крышке над процом придётся снять.
Вам тогда боксовый Wrath prism зайдёт: 92*108*105
UFO just landed and posted this here
Какой-нибудь Noctua NH-U14S TR4-SP3, Cooler Master Wraith Ripper или Dark Rock Pro TR4 должен справиться.
UFO just landed and posted this here
Необязательно ничего хоронить, достаточно запомнить что под TR4 сокет обычные охлады не подходят из-за большой разницы в площади крышки и площадки. Поэтому некоторые производители выпувскают спец. кулеры под этот, своеобразный и относительно редкий процессор. В этом классе все решения заточены конкретно под рипер и их не то чтобы широкий ассортимент.
Однако этот воздушный охлад справляется так себе, если верить первым обзорам. Там кто-то в многопоточной нагрузке прожаривает проц до 80+ градусов на топовом ноктуа. При том что для Zen+ рекомендовали удерживаться в рамках 70, какие рекомендации у 3000 серии еще нужно поискать.
UFO just landed and posted this here
Как ни странно фатально — подтекание. То есть если внезапная разгерметизация и лужа на полу… просушите, замените жидкость — и нормально. А вот есть там чуть-чуть подкапывает — то всё может банально сгнить, пока уровень станет достаточно малым, чтобы система охлаждения «встала».

С другой стороны моему Mac Pro G5 QUAD уже больше 10 лет, а он вполне себе нормально работает, несмотря на жидкостное охлаждение…
UFO just landed and posted this here
Хорошие фитинги, руки из нужного места и вот эта штука для проверки кастомного охлаждения на наличие утечек.
UFO just landed and posted this here
Всегда есть вариант «найти того, кто сделает как надо».
Лично у меня было 3 AIO, и все работают нормально. Одна после полугодовалого перерыва в работе и нахождении в непосредственной близости к холодному балкону стала потрескивать, но работает.
Насколько я понимаю, AIO фактически не протекают, но там может накрыться помпа.
Что касается custom loop, то там все зависит от рук. Лично я свою AIO буду в ближайшее время менять на кастомную СВО, потому что скачки нагрузки и температур раскручивают без нужды вентиляторы. Хочу, чтобы они реагировали на изменение температуры воды, а не процессора, который по температуре прыгает с 40 до 65 и обратно по банальному обновлению страницы.
Если не боитесь связываться с инженерными семплами и алиэкспрессом, то посмотрите на QQBZ (инженерный семпл i9-9900). 8 ядер, при нагрузке на все ядра держит 4.2 ГГц. Производительность на ядро и производительность в многопотоке не хуже, а даже чуток лучше, чем 3700X.

За счёт того, что это инженерник, частота неcколько ниже, чем у обычного i9-9900, зато и температура ниже. В остальном ничуть не хуже серийных образцов: архитектура у Intel уже вылизана, инженерники имеют такой же степпинг как и серийные процы и даже микрокоды у них совместимы. Т.е. не будет никаких аппаратных сюрпризов, как, например, было с инженерниками Skylake, которые были довольно «сырыми».

Можно даже извратиться и засунуть его в материнку на 100/200 чипсете, топовые материнки на Z170 сейчас сливают по цене дешевых H310, а по качеству компонентов и начинке первые, конечно, намного лучше.
А с какой целью вы ориентируетесь на TDP? Просто у Интела и у АМД разное понимание TDP. Intel спокойно засчитывает за TDP потребление в режиме даунклока, когда производительность меряется в режиме буста.
Просто хочется что-то попроизводительное своего старика i5-2500K, но чуть потише под нагрузкой.
Понимаю, что на сегодня уже не актуально, но… у меня i7-6700, все же будет производительней, и при этом весьма холодным.
На конец 2019-го думаю цена как за «грязь» (условно)
Кстати, для варианта апгрейда малой кровью рекомендую проверить алиэкспресс и материнскую плату — у моей asus z77-a производитель заявил поддержку ксеонов E3 и E3 v2 — это по сути линейка процессоров sandy bridge и ivy bridge с другим названием. Поставил я себе года два-три назад E3-1230V2 — примерный аналог i7-3770 взамен моего i5 санди и доволен. Обошёлся на тот момент в семь т.р. или около того, сейчас скорее всего будет дешевле. Есть и более высокочастотные, 1240-1290. Варианты с 0 на конце лишены встроенной видео и более холодные.
Не-не, я хочу уже сделать прыжок вперёд к DDR4 и NVMe дискам, так что мать, проц, память и SSD буду брать.
Тоже верно, я со своей текущей конфигурации забираю только ссд и звук, остальное собираю с нуля.

Берите 3700Х, он достаточно холодный, а производительности в повседневных задачах хватит лет на 10

Кстати, в обычных десктопных задачах, браузер, ворд и т.п. между i5-2500k на 4,4ГГц и 3700X разницы на глаз нет вообще. Если есть, надо с секундомером сидеть. В игрушках да, видно в некоторых, которые упирались в 2500k.


И между Sata SSD и в три раза более быстрым NVMe разницы на глаз тоже нет, если не копировать непрерывно большие файлы.

«три раза более быстрым NVMe разницы на глаз тоже»
Есть. Там не в скорости дело, а в том, что это другой протокол. У него очередь команд (и их несколько параллельно причем) и латентность (PCI express, же, это наносекунды) меньше. Вам может казаться, это фигня, но это очень существенно, причем WINDOWS все еще не до конца может воспользоваться этими приемуществами. Там столько еше допиливать /потирает ручки/. А вот Linux уже допилила.
Вам может казаться, это фигня, но это очень существенно, причем WINDOWS все еще не до конца может воспользоваться этими приемуществами.
Может и хорошо, что не может? А то в Windows как-то это кончается примерно так: «Ура, наша новейшая версия Windows 10 2909 освоила инетрвейс M.5 — теперь с вашим крутейшим и новейшим накопителем вы сможете получить такую же отзывчивость интерфейса, как и на Windows 95 чертверть века назад на компьютере с HDD!».
Не будет никакого M.5. Когда Pci express обновляется (до 4.0, например) это автоматически обновляет NVME скорость. В этом и красота! Теоритически тоже касается и Thunderbolt 3 (USB4).
получить такую же отзывчивость интерфейса,

Эх. Бесят меня такие комменты, у меня винда грузится за 5.8 секунды до рабочего стола, это благодаря nvme. Думаете фигня? Да, linux при тех же услових грузится за 0.5 секунды, но это меня, думаете, волнует?)) И компиляция? Она увы не завит от GPU. Только от проца и скорости памяти.
Не будет никакого M.5
Это сегодняшние планы.

Когда Pci express обновляется (до 4.0, например) это автоматически обновляет NVME скорость.
Когда PCI четверть века назад вводили — разговоры были такие же. Вот точь-в-точь.

Типа, у вас сейчас 33MHz, но сервера умеют в 66MHz, а там — будет вам и 133MHz и больше. Прошло 10 лет… и оказалось — что нет, так не будет. Нужен новый интерфейс.

Эх. Бесят меня такие комменты, у меня винда грузится за 5.8 секунды до рабочего стола, это благодаря nvme. Думаете фигня?
Нет, не фигня. Это столько же, сколько Windows 95 грузилась на рубеже веков на свеженьком (тогда) Pentium III в 1GHz или DOS на PS/2 с 286м процессором без HDD вообще — лет за 10 до того. То есть вы, скорее, подтверждаете мою правоту, чем опровергаете её.

И компиляция? Она увы не завит от GPU. Только от проца и скорости памяти.
Тут да — Borland C++ 3.1 на каком-нибудь 386м компилировал заметно дольше. И даже Turbo Pascal 3.0. Тут есть заметный прогресс.

А вот Windows — умудряется сожрать все ресурсы всех современных разработок в области железа… с нулевым полезным выхлопом.
Когда PCI четверть века назад вводили — разговоры были такие же.

Это не разговоры, уже можно купить. (На у.маркете.)
3dnews.ru/995849/pci-express-4-0-for-nvme-ssd

Что за M.5? Нет такого.
Windows — умудряется сожрать все ресурсы всех

Я пользуюсь clang и gcc для windows. Не заметил разницы с linux. Впрочем, вы правы, например, wddm модель графического драйвера накладывает огромные ограничения на blender, которые можно убрать если перевести карту в tesla mode (nvidia).

Это столько же, сколько Windows 95 грузилась на рубеже веков на свеженьком (тогда) Pentium III

Не верю)))))))) Может, вы и правы, конечно. Но я только за последние несколько лет действительно почувствовал полностью не лагающую систему, что на Андроиде, что на Windows.
Что за M.5? Нет такого.
А Windows 10 2909 уже есть?

Не верю)))))))) Может, вы и правы, конечно. Но я только за последние несколько лет действительно почувствовал полностью не лагающую систему, что на Андроиде, что на Windows.
А там всё просто. Когда Windows 95 выходила — самым быстрым процессором был Pentium (ещё оригинальный, без MMX) на 200MHz (а у большинства пользователей был явно не он). И памяти на большинстве материнок можно было установить не более 64MiB. А начало XXI века — это уже Tualatin на 1.4GHz и 512MiB памяти. Поверьте, семикратное ускорение и такое же увеличение памяти и дискового пространства — придавало очень заметно резвости.

Вот только вышедшая тогда же Windows XP сожрала весь этот запас… и дальше история повторялась.

Только вот в случае с Windows NT (оригинальной, не всякие модные Windows NT 4.0 или XP) я хотя бы понимаю за что плачу… но вот в случае с Windows 10, извините… нет.

Вот чего умеет Windows 10 такого, что требовало увеличение памяти со 128MiB до 1GB? И 16GB вместо 1.5GB на диске? Это, как бы, почти десятикратное увеличение требований… ради чего? Вот что такого ресурсоёмкого там добавилось и зачем оно там?
А это интересный вопрос. Вот я могу вам объяснить, зачем Chrome нужно столько памяти, и ему действительно НУЖНО именно столько памяти, чтобы всё правильно распарсить. А вот закрытый код windows все портит. Одна эта история чего стоит. habr.com/ru/post/466941

И еще тот факт, что по умолчанию, windows пережимает jpeg обои до 80% от качества. Это ж полный абзац. Ну сколько там памяти нужно, чтобы блин 5 Мб 4K обоев правильно отобразить? answers.microsoft.com/en-us/windows/forum/windows8_1-desktop/any-word-from-microsoft-on-the-horrible-wallpaper/64369bb2-bf28-4601-aba0-1197ea205eb2?page=4&auth=1

А тот факт, что до сих пор нету полного управления цветом на рабочем столе и во всех приложениях, как это сделано в MacOS? Это ж единственное, в чем macOS лучше, но фиг там, не чинят. Худо бедно hdr и dolby vision сделали и все. Причем вторую еще и нефициально и ломалась она уже не раз.
UFO just landed and posted this here
Ну, на Windows 10 можно поставить, чтобы не пережимал. И png не пережимается по умолчанию.
Navigate to «Computer\HKEY_CURRENT_USER\Control Panel\Desktop»

Right click «Desktop» folder -> «New» -> «DWORD (32-Bit) Value» (use 32-bit value for BOTH 32 and 64-bit systems)

Name new Value name: «JPEGImportQuality»

Set Value Data to 100

Set Base to Hexadecimal
Причём это было сделано одним человеком.
Вот чего умеет Windows 10 такого, что требовало увеличение памяти со 128MiB до 1GB? И 16GB вместо 1.5GB на диске? Это, как бы, почти десятикратное увеличение требований… ради чего? Вот что такого ресурсоёмкого там добавилось и зачем оно там?

Заменить Windows 10 на любую другую аналогичную ОС и тоже окажется правдой.
Даже и ядро Linux. И даже операционки на Linux. OpenWRT уже предупреждает о том, что не стоит покупать устройства с 32MiB памяти. А ведь каких-то 17 лет назад 16MiB памяти было нормой.

Впрочем увеличение потребности в 3-4 раза за 20 лет лет и 10-20 раз — это немного разные вещи.
Разумеется. Потому что «любая другая аналогичная ОС» тоже будет делаться ровно таким же способом.

9x не умела нормального кеширования, поэтому объем памяти выше 64МБ для нее был бессмысленен.
Винтукей же требовал не менее 96 для комфортной работы с типичным набором софта. А XP, так и вовсе, от 128.


Но впечатления от Tualatin@166&DDR, конечно, сильные. Даже Northwood не мог с ним конкурировать, ибо при схожей производительности кушал существенно больше.

UFO just landed and posted this here

Простите, а этот вывод


а же XP до первого сервиса пака не умела в USB 2.0.
А после второго потребовала для работы уже в районе 2 гигов

вы сделали из вот этого:


на 1сп комп уровня 2 пенька, если не ошибаюсь, с метрами 64 оперативки и 32 метрами видюхой

утверждения?
Ничего, что во времена XP таких объемов не наблюдалось на рынке и даже приснопамятная Vista часто довольствовалась 0,5÷1ГБ?


Не говоря уже, что DX10 был прибит к свисте исключительно софтово, и умельцы пропатчили эту дурость для работы с более вменяемыми ОС почти сразу. Как и DX11.


Почему NT5 ела больше памяти и проца, чем 9x было понятно — другая архитектура, NTFS, безопасность. Почему NT5.1/5.2 ела больше памяти — тоже было понятно: растровые темы, windows restore и еще пяток столь же "нужных" нововведений.
Потрясающий воображение жор памяти и повальное обрастание ненужными сервисами и фоновой активностью началось как раз с Vista, которую пропихивали примерно так же как и 10, если учесть повальное отсутствие широкополосного интернета тогда.


На самом деле под капотом современных ОС было тьма изменений.

Например, корректный flush буферов, чтобы все смонтированные ФС перед hybernate стали консистентными? Включая привнесенную 8 гибернацию ядра? Или планировщик, сохраняющий активные нити за одним и тем же ядром и не прерывающий их ради мелких задач?
Этим проблемам, между прочим, скоро 20 лет стукнет.
Гибернация ядра, кстати, в сочетании с гибридным спящим режимом — просто убойное комбо. В прямом смысле — два дня, и аккумулятор в нулину.
Или, может, в винду завесли нативно Compose/Level3?


Нет, это 24-ядерный CPU, а я не могу сдвинуть курсор и Почему для открытия меню Windows читает один файл сто тысяч раз?


Изменений много, да. А можно мне билд из другой, менее ебагнутой ветки? Где из коробки давно работает UTF-8, отключаются ненужные сервисы, вместо получасового жевания соплей sysrestore есть нормальный snapshot/rollback, где на быстром SSD нет сношения диска в течении нескольких минут "ускоряющими кэшами", из-за которых комп жестко тупит?


Не поймите меня правильно, вдруг. Но много это мера количественная. О качестве проделанной работы она не говорит ровным счетом ничего.

UFO just landed and posted this here
подскажете как их поставить на версию 9x про которую был разговор выше?

Если бы вы обратились лет хотя бы на 10 раньше — помог бы и поделился ссылками на пропатченные бинарники. Сейчас у меня в хозяйстве другие системы, с другими проблемами. Могу дать направление, в котором копал сам: Crysis x64 dx10 xp. Если, конечно, вам все еще актуально.
Гугл находит массу следов в прошлом. Например, вот эта статья.


виста была намного устойчивей и безопаснее XP

Не знаю, как насчет безопасности. Надеюсь, вы не про UAC, с его вечным Непонятная фигня пытается сделать непонятную фигню. Если действие запущено вами, то продолжайте. и находящейся рядом то ли самой галочкой, то ли ссылкой на место, где можно
поставить галочку Перестать иметь пользователю мозг запросами с непонятной фигней?
Потому как антивирус и файрволл пришли в XP с SP2, в 2004, а релиз [Vista состоялся](https://ru.wikipedia.org/wiki/Windows_Vista] в 2007.
Но вот стоны о нестабильности и тормознутости Vista я помню отлично. А нефиг в lowend пихать то, что едва ворочается в middle. Их поубавилось только с ростом мощностей ПК и выходом сервиспаков.


Ну а про то, что XP — последняя винда, которую элементарно можно было поднять переустановкой с CD поверх (при нерабочей системе), вот это я помню хорошо. После нее уже были жизненно необходимыми акронисы и прочее ПО с автономной загрузкой.


вы, видимо, забыли как XP хейтерили на момент выхода

Основная причина хейта XP звучала так: у меня тут копролит, последний раз драйвера под который производитель писал к 95 или 98 (даже не SE), и те сырые и ни разу не WDM или у меня 486 и 8МБ памяти, 95 же работала!
Примерно тоже касалось и x64. С поддерживаемым железом и на подходящих аппетитам конфигурациях не было никаких проблем, как и у почти любой другой ОС.
Я ее гонял от превью до x64 SP2 и от P166MMX/128M до i5-3570K/16GB, в нескольких сотнях инсталляций.


Так что вопрос к тому, что большая часть программистов, к сожалению, реализуют как они хотят и видят в меру их умений, а не как это правильнее было бы…

Согласен. Просто, в случае с виндой все осложняется тем, что нет и не будет того самого анестезиолога. Или любого другого неравнодушного.
Увы, проприетарщина, ничего личного.

UFO just landed and posted this here
Ещё раз, вопрос был про линейку 9х, то бишь 95 и 98)

Mea culpa!
Прочитал как 9.0x (в смысле, 9.0c и иже с ним)


А вот как я проклинал зверьXP

У, это притча во языцех! Впрочем, я тогда сам с nLite и sfx-установщиками развлекался. Иначе не собрать 12 ПК за смену. А так 3-4 на установке, пока один скручиваешь как раз очередной заканчивает.


ещё больше было проблем из-за того, что программописатели никогда никаких гайдов не придерживались и привыкли пихать куда попало файлы программ

Всегда удивлялся, специально народ такой софт ищет, что ли?
Подавляющей части софта вообще не нужна инсталляция, распаковать да установить ассоциации reg-файлом.
Но, вообще-то, к выходу XP актуальный софт был уже очень даже в курсе, потому как писать в %ProgramFiles% не из-под админа нельзя было еще со времен NT4, а в корпоративном сегменте уже больше года существовала 2000-я. Так что каких-либо правок требовали только некоторые системного уровня утилиты, вроде SpeedDisk, Nero, снифферов да антивирусов.
Проблемы были только с совсем странным, вроде всяких SlyDVD (драйвер, де-факто несовместимый с ASPI), некоторых bluetooth (с этим нормально стало уже 8.1, и то...), не-WDM сканеров и звуковух, ISA-видеокартами и всяческим другим legacy.


Это, кстати, про безопасность висты и выше относительно XP.

Ну а если отдавать юзеру админа… Вспоминается


#define TRUE FALSE //happy debugging!

Тогда как все вопросы обычных пользователей в Линуксе спускали на тормоза классическим «у меня такая же нога, но не болит». Собственно, большая часть возникаемых проблем у пользователя на линуксе на форумах вызывает постоянные ответы в таком духе.

Хм. На зарубежных форумах более другая атмосфера, и иностранцы гораздо любезнее отвечают даже на тупые вопросы.
А ЛОР да, такой… Он для кича и прокачивания ЧСВ, а не для жалоб и поисков решения проблем.

UFO just landed and posted this here

Каюсь, грешен. Сам сидел, бывало, даже под доменным.

UFO just landed and posted this here

Тем не менее, переименованный dx10 renderer от Crysis на XP c записями в реестре и подкинутыми в нужные места либами (то, что должен делать штатный инсталлятор) запускался и работал.


Другое дело, что dx10 так толком никем и не поддерживался долгое время. Тот же Crysis Warhead вернулся обратно к dx9.

UFO just landed and posted this here

Если я правильно помню, подменялась библиотека рендера, а старая удалялась.


Но эксперимент уже не провести, а память может быть ненадежной.

UFO just landed and posted this here
Никаким не пользуюсь, беру бинарники статические))) в том же visual studio. а если серьезно, наверное, можно присобачить powershell репозитории… Ну и Linux subsystem on Windows куда же без него))) а ещё я пользуюсь физическим ssd, подключенным к vmware с kali linux, таким образом я могу и загрузится с него, и в vmware загрузить. Вчера обновил его до eufi. Теперь этот grub-efi грузится в vmware, но не хочет в физической системе. Скотина. Придется разбираться, видимо проблема в том, что /dev/sda3 должен быть /dev/sda1 а может и нет
Если кому интересно, проблема была в том, что моя система не поддерживает EFI/kali/, ей нужно EFI/Boot/
askubuntu.com/questions/597052/can-not-boot-anymore-after-a-boot-repair

Впрочем, теперь моя 2080 Ti и мой wifi Tp-link Archer T9UH не работают (хотя на оба есть драйвера). Эххх.

У обоих SSD в моей системе, SATA3 и PCIE3.0, read access time по тестам ~100 мкс. Windows это или сами накопители, с практической точки зрения результат одинаковый.

Что такое read access time? Тестировать их нужно с помощью fio. Смотрите www.google.com/search?q=nvme+test+latency+fio+stackexchange

Кроме этого m.2 накопители бывают разные, есть накопители которые на самом деле обычные SATA накопители, а есть нормальные pci express.
Что такое read access time?

Предполагаю, что read latency. Очень надеюсь, что оно измеряется, а не как-то высчитывается через iops.


Тестировать их нужно с помощью fio.

Как только fio можно будет просто взять и запустить на Windows лишних танцев.


Кроме этого m.2 накопители бывают разные

Поэтому специально пишу конкретно: SATA-3 vs PCI-E 3.0.

«высчитывается через iops»
Именно, с поправкой на очередь и планировщик. И еще пару поправок.
UFO just landed and posted this here
Никто не считает TDP потреблением, не стоит ставить эти слова в одно предложение. Это постоянно вызывает путаницу и стало распространненым мифом в интернетах. TDP это требования к системе охлаждения — сколько тепла та должна рассеять. Энергопотребление, тепловая мощность процессора и рассеиваемя мощность системы охлаждение это разные вещи, пусть и тесно связанные. TDP это рекомендации по характеристике СО от производителя процессоров.
Энергопотребление, тепловая мощность процессора и рассеиваемя мощность системы охлаждение это разные вещи, пусть и тесно связанные.
Всё, что процессор потребляет, но не отдаёт, выделяется в тепло, которое нужно рассеять, а т.к. силовых выходов, насколько я помню, у ЦП нет, то разница между потреблением и тепловыделением с практической стороны несущественна.
разница между потреблением и тепловыделением с практической стороны несущественна.
Если всё что, меньше двух раз считать несущественной разницей — тогда да. Но вообще процеccор с TDP в 95W может легко под 180W потреблять.
UFO just landed and posted this here
Всё, что процессор потребляет, но не отдаёт, выделяется в тепло

позвольте поинтересоваться, куда он девает то, что не отдаёт в тепло?

Помню. Его ещё репликаторы делали. По лицензии, наверное :)

Выходные сигналы процессора — это же тоже электрический ток, и какая-то (полагаю, незначительная) доля потребляемой мощности уходит с ними.
UFO just landed and posted this here
UFO just landed and posted this here
Ага, спасибо. Ну я осторожно протестирую. 3700X идёт с боксовым кулером, посмотрю как он себя поведёт, а если что, прикуплю что-то получше.
UFO just landed and posted this here
Забавно. Предчувствую интересные деньки после сборки :)
UFO just landed and posted this here
Боксовый кулер у третьих рузенов уже чисто алюминиевая чушка, когда со вторыми рузенами шло комбо «медь-алюминий». Поэтому и шумнее. Удешевляют-сссс.
Все от модели зависит. Конкретно в сравниваемых выше R5 2600 и 3600 что во 2м, что в 3м поколении идет самый простейший чисто алюминиевый кулер Wraith Stealth.

А разница по шуму скорее всего из-за разных материнских плат с разными профилями управления кулером.

Более приличные кулера с медной вставкой и даже медными тепловыми трубками в 3м поколении тоже кладутся, только как и в 2м модель с тепловыми трубками идет только начиная с 8 ядерных моделей (2700/3700х) к ним в комплекте идет уже довольно приличный Wraith Prism, вот такой:
внешний вид
image


Так что в плане комплектации никакого удешевления — есть 3 модели боксовых кулеров, которые прикладываются в порядке возрастая «ядерности» и TDP процессора.

Я брал боксовый, т.к. в тот момент оемный был почти за ту же цену. Если пробовать включить какой-то разгон, родной кулер воет и температура на максимуме. Если использовать в стоке, то кулер справляется нормально, а обороты можно подстроить, чтобы в обычном режиме было неслышно. Под нагрузкой же шумноват, на мой вкус. Не так, как родной от i5-2500k, но всё-таки.

3700x c боксовым кулером начинает тротлиться при 100% загрузке всех ядер под разгоном (заметил с AIDA64, частоты были выше 4.4Ghz).
Хотя, вчера новую версию BIOS накатил, которая обещала снижение температуры, вечером перетестить стоит.
Но боксовый кулер нешумный, это да.
UFO just landed and posted this here
На новом BIOS память отказалась стартовать с 3733 MHz/1T, пришлось скидывать разгон до 3666, зато тайминги понизил, невелика потеря.
Тоже долго выбирал между 3600/3700/3800, решил, что лучше пусть будут +2 ядра, чем не будут, ибо последний раз менял процессор в 2012 и тоже думал «ладно, возьму пока 6 ядер, если что — сменю проц».
UFO just landed and posted this here
Если что, на Zen2 память выше 3600 MHz бесполезно разгонять, даже вредно. На Zen/Zen+ чем лучше, тем быстрее, но даже до 3600 по памяти обычно не доходят.
Верней выше 3600 можно, но нужно шаманить с частотой Infinity Fabric.
вроде 1t/2t как раз задают делитель для частоты if по отношению к памяти, нет? Можно залочить множитель и не завестись проверить границы разгона. на 3800 не заводится, на 3733 появился синий экран при прогоне FF XV — решил остановиться на 3666.
Цитата от AMD: «Infinity Fabric tied to memory clock at 1:1 ratio up to DDR4-3733»
Выше становится 2:1 и скорость IF падает ( но рекорды с 4600+ по памяти можно ставить)
1t/2t
Не признал, что это делитель так обозначается.
Фактически, никто не заставит вас отключить Coupled Mode и выйти из режима 1:1 даже после 1800 на памяти и IF. Просто на данный момент экспериментальным путем обнаружен кап на IF 1900, после которого система просто не стартует. Заметьте — не включает сама 2:1, а не стартует. До 1900 включительно IF может погнаться или начать сыпать ошибками раньше — тут как повезет с разгоном IO чипа. Выше IF не гонится ни у кого — ни у 3600Х, ни у 3950X.
1t/2t это часто command rate памяти обозначают. Так что сразу не ясно про что это.

Делитель частоты шины вроде на большинстве плат автоматом всегда, в зависимости от выставленных частот памяти.
UFO just landed and posted this here
Есть, включая 3950X: просто заходите в BIOS, тыкаете галку «eco mode» — вуаля!
Ваш процессор андервольтится и укладывается в 65W.
Все более младшие модели камней тоже так умеют, но может потребоваться обновление биоса.
UFO just landed and posted this here
Intel всё равно побеждает в производительности на ядро
Простите, откуда же тогда меньшие показатели в однопоточных тестах?
UFO just landed and posted this here
Тсс… не мешайте старую мантру повторять… что и ядра слабые и греется амд… и вообще фу. Пускай люди кормят интел.
Ну действительно, Интелу сейчас тяжело стало, пусть подкармливают ;)
UFO just landed and posted this here
А я бы сказал что интелу тоже кушать надо, обязательно, но хорошая диета им будет очень даже на пользу.
Дадада, AMD слабые, дорогие и греются, идите к Intel.
Топовые AMD и так сметают с полок, реальных процессоров не найти, вон, в Германии по 1200 евро скупили всё при рекомендованной цене $750.
PS Intel в играх убедительно побеждает в разрешении FullHD, но покупать топовое железо, чтоб потом щуриться в fullhd и радоваться 230 fps с Intel, а не жалким 200 у AMD — ну так себе идея. Хотя не буду спорить о вкусах.
Вы как-то неправильно статью читали и графики смотрели. Если брать процессоры, обсуждаемые в статье — то новый intel 10980XE плюс-минус то же самое показывает в single-thread, что и 3950X и тредрипперы, однако сильно уступает тредрипперам в многопоточных тестах (и все еще +- нога в ногу с 3950X, который дешевле и которому нужны более дешевые материнские платы, о чем в статье прямо говорится).

Если говорить про i9-9900KS — то там все, конечно, интереснее. Если вы посмотрите тесты — то в single thread он не сильно опережает тот же самый 3950X (там единицы процентов, что в общем и ожидается от 5 Ghz турбо-буста у i9 против 4.7 Ghz турбо-буста у 3950X). Однако когда речь заходит об одновременном бусте на много ядер — i9 справляется гораздо лучше чем 3950x, потому что ядер у второго больше, а от питания и тепловыделения никуда не денешься. Собственно он справляется сильно лучше и уже упомянутого 10980XE по тем же причинам.

Поэтому этот самый топовый i9 ожидаемо сильно уступает практически во всех productivity тестах, однако берет верх в определенных кейсах, где задействовано некоторое количество ядер, но не все. Большинство этих кейсов в многочисленных уже проведенных и опубликованных тестах складываются во время тестирования FPS в играх. При этом игра игре рознь — например в Battlefield 5 или новом Tomb Rider разницы в FPS, судя по тестам, почти нет. А в Far Cry 5 3950x очень сильно уступает i9.

Я это все к тому что интел сейчас побеждает не в «производительности на ядро» (тут как раз примерно паритет), а в некоторых отдельно взятых случаях специфической нагрузки, характерной, например, для не новых движков компьютерных игр, которые скорее всего специально точились под 2/4 ядра.

И вывод в целом такой — для игр — если за максимальные деньги, то да, пока все еще intel. В более бюджетном сегменте или для серьезной работы… Есть вопросы.

Есть набор игр, которые жрут проц неадекватно результату, или как принято говорить — "плохая оптимизация". Например, тот самый Far Cry 5, или Assassin's Creed Odyssey (которого ещё подтормаживает денува, и почему-то наличие оверлеев может дать разницу в десятки фпс, а наличие установленного Afterburner выносит фпс либо роняет игру вообще), или GTA V (он тормозит традиционно, начиная уже с лаунчера). Или например, Warhammer Total War 2 (которому ещё желательно оперативки свободной гигов 12 и SSD). Кажется, если люди там понаписали какого-то лютого говнокода, от которого кровь стынет в жилах, то дальше от него можно ожидать всё что угодно — и оптимизацию под конкретные процессоры (у Ассасина с этим были проблемы на релизе — они забыли указать, что игра идёт только на свежих процессорах), и оптимизацию под конкретные видеокарты (те, что в компах у разработчиков), и "магические" объемы оперативной памяти после которых становится хорошо, и чёрта в ступе

Для ГТА5 помогает поднять приоритет програмы в процессах. Разница на глаз видна.
Сам мучался несколько десятков часов, пока не раскусил
Может и в других играх поможет
(А я думал, приоритет вообще ни на что не влияет)
Мне помогает запуск улучшалки от видюхи Асус — убивает лишние процессы и что-то ещё делает — польза тоже заметна.
Ещё недавно пробовал какую-то с названием Razer — помогает ещё лучше, но она с рекламой.
1С тоже обещает, что миниальные требованиях к новой King's Bounty II — это 16 гигабайт памяти и Win10.
До чего прогресс дошёл, KB2 хватало 640КБ…
Вот так и живёт программист: поменял арабские цифры на латинские (KB2 -> KB II)- и потребление памяти выросло на 4 порядка.
Это во всём фреймворки виноваты! /irony
Тот программист сначала сам себе написал фреймворк на ассемблере, потом на нём игру. Так что да.
я сейчас делаю игру смешанного жанра, отчасти вдохновляясь именной первой KB, браузерной вкладке с игрой хватает 30 МБ ОЗУ.
UFO just landed and posted this here
Обязательно, но только я даже сам не знаю, когда я ее доделаю.
UFO just landed and posted this here
define «в реальной жизни». В статье речь про threadripper'ы, т.е. серверные процессоры. Для них как правило важны многопоточная (многопроцессная) производительность и энергопотребление. И по совокупности этих параметров AMD сейчас далеко впереди. Ждем 10нм от intel, вангую бомбу.
threadripper'ы для рабочих станций. Для серверов есть epyc.
UFO just landed and posted this here
UFO just landed and posted this here
UFO just landed and posted this here
9700K позиционируется как топовый процессор для домашнего использования (читай игр), в которых важна производительность на ядро; 10980 XE — как процессор для рабочих станций серверов, где однопоточная производительность отходит на второй план. Вполне естественно что в играх 9700K выигрывает.
UFO just landed and posted this here
UFO just landed and posted this here
Я Вам больше скажу, я иногда не понимаю цепочку из одного комментария. И эти комментарии обычно принадлежат Вам. Тред начинался с заявления, что Интел способен в однопотоке показывать лучшую производительность чем АМД. Вы в своем комментарии незаметно (на самом деле нет) перешли к сравнению в однопотоке процессоров для игр и серверов. Признаю, подумал все 10 раз, и все равно невдомек, каким образом это опровергает изначальную тезу.
Я же просто указал на то, что преобладание 9700K над 10980XE в однопотоке — нормальное явление.
UFO just landed and posted this here
Позиционировался.
Для старых движков игр это так, для новых — многопоточность важнее быстрых ядер, для будущих портов с консолей, в которых те же 8 ядер /16 потоков — и подавно.
Ну так 9700K это 8 ядер; если думаете, что Hyperthreading что-то решает — ну возьмите 9900K. Но вообще по поводу распараллеливания игр я не разделяю Вашего оптимизма.
Все новые консоли будут c 8c/16t процессорами, amd вылезла с дешёвыми 12t процессорами, движки с raytrace растут, как грибы — я полон надежд и оптимизма.
Intel брать не стал — ибо дороже и мне не нравится, когда за один и тот же сокет, только другой, каждый раз пытаются снять денег.
Intel, перестань.
PS в целевом разрешении 1440p для игр разница между amd/intel в пару кадров несущественна.
Оптимизм можно не разделять, но прогресс движется независимо от оптимизма.) В эпоху массового 4c не было смысла проектировать десктопный софт на больше, чем четыре потока, всё равно их утилизировать было особо некому. В эпоху массового 8с смысл появится.
В любых играх быстрые ядра ценятся больше всего. Еще больше ценится много быстрых ядер как у 9900k/9900ks.
AnandTech единственные, кто до сих пор с умом делает графики, не просто с безликим названием процессора, а с количеством ядер, TDP и ценой.
Графики с подписями это хорошо, но их набор тестов удручает — никак не подходит для тестирования серьезных процессоров. Например, видно, что в тесте кодирования там более 16 ядер вообще никак не используется. И нет никаких режимов типа 10 bit 4:2:2 4K — как раз под которые и покупаются подобные камни.
Еще немного печальное замечание: в Blender и прочих 3D все тестируют время рендера. Про просчет физики, симуляцию жидкостей — забывают. А там есть на что посмотреть, например старый Ryzen обгонял Intel по времени рендера, но безнадежно (до 50%) отставал в скорости просчета физики. Днем с огнем не сыщешь таких тестов…
А кто уже с подобными процессорами сталкивался… Как отводить от процессора 280Вт?? Это еще одна турбина в корпус? (плюс видео столько же… и вот они полкиловатта на одну коробочку #ох)
k9900ks, который под нагрузкой с примененением avx2 выдаёт примерно те же цифры, рекомендуют использовать с водоблоками.
Какой у новых Ryzen Threadripper 3960X и 3970X потолок ПСП при однопоточной работе?
У их предшественников он был всего 29 ГБ/с (т.е. многоканальность памяти реально нужна только при многопоточных алгоритмах запросов данных, а м.б. это ограничение даже и на ядро, а не на поток и SMT тут тогда тоже не решает) а у Интел — так вообще всего около 14.
image
даже разогнанный 28 ядерник не в силах одолеть 24 ядра тредриппера, интересно.
протестировать бы в MS SQL, Postgres и т.п. типа для бюджетного сервера выбрать.
Ну всё, жду 2020 года, разбиваю копилку и покупаю Threadripper 3990X.
Бедняге Интел то ли конкурента догонять, то ли дыры закрывать…
Статья про zomblieload2 на intel (ну и фикс, который на 4-10% режет скорость) уже была на хабре?
Активно не слежу, но про новые не встречал. Приходится на других более оперативных ресурсах читать про них.
UFO just landed and posted this here
Всё зависит от задач, думаю. Где-то могла и серьёзно упасть, но уже не сделать тестов «до и после», как с айфонами.

Интересно получается, когда конкурент есть. И ядер добавили, и цену снизили. Даже дерьможвачку на припой заменили(мой 4790к без скальпинга просто вис в прайм95, даже не тротлился). Просто сказка какая.

интересно, не первый раз в истории АМД делает сильнейшие процессоры, при бюджете на разработку на порядок меньшем.
Интел могли бы от бюджета R/D 1/8 к примеру взять и направить на разработку чиплетных вариантов, техпроцесс заказывать на стороне опять же.
У них есть чиплетные варианты, называются EMIB, но когда до потребителя дойдут — не ясно, вероятно, не раньше 2021.
Фото
image

image

image
Зачем на стороне? Вообще-то чиплеты изобрёл Intel. Может не изобрёл, но в CPU использовал точно.
Отакої
Но широкий ход, всё-таки, не пустили. Увы и ах.

Сами то поняли, что написали?

Sign up to leave a comment.