Комментарии 131
До покупки своего первого AMD (Ryzen 7 1800x) был абсолютно параллельно, что происходит с рынком ЦП. Теперь болею за красных! Реально хочется процветания компании, которая так конкурирует.
Если завтра дядюшка Ляо перестанет пилить телефоны и запилит хороший процессор за вменяемый ценник — буду только рад.
Tarakanator этот профиль энергопотребления не помогает?
Но всё равно лимиты на буст это явно не снимает.
У меня компьютер в основном для работы — проектирование, виртуалки, офисное ПО и для себя файлопомойка, архив, iptv и игрушки, работает 24/7, как показала практика только на интеловских процах, чипсетах и сетевухах это нормально живет.
На счёт разгона тоже спорно. Если вам нужно сократить время рендеринга, то +10% производительности действительно не стоят того. Но если у вас игра упирается в цп, то +10% производительности может быть заметно даже на глаз. А альтернатив нет. Много ядер игры не умеют использовать. Вот и выбор либо страдай, либо разгоняй и страдай меньше.
А разгон это бесплатный прирост производительности за 5 минут + одноразово стресс тест на ночь.
И чем больше разовая очередь на рендер, тем существеннее влияют даже 5%, бесплатного ускорения.
p.s. В большом суровом медиапроизводстве, разумеется проще добавить мощностей. Но в частном порядке, разгон имеет смысл, в отличии от удвоения трат на мощности, без уже имеющейся на эти мощности загрузки.
Да и просто приятно получить чуть больше, за теже деньги.
Ваш случай это тупо накрутить лимиты. В моём же случае с подбором таймингов я целый день провозился. Правда это учитывая промежуточные стресс тесты, во время которых можно было заниматься чем-то другим.
Гм, так интел уже сколько лет между разными поколениями выдавал +5% на ядро при одной частоте и продавал с новым сокетом, и ничего, ага.
Я никого не заставляю апгрейдиться на +5%, Интел это делал от дохлости конкурента(у них(Интел) более 10ти лет как есть опытные процы с 80 ядрами но нет коммерческого стимула их выпускать) но и смысла гнать на +5 — 10 % рискуя стабильностью и тратя на это дни времени не вижу.
А вот это откровенная ложь.
У вас есть ТАК используемый компьютер с аптаймом от обновы до обновы?
И у меня есть мой комп на Интеле эксплуатирующийся в таком режиме.
Угадайте, что же в реальности лучше решает задачи
Мои — Интел 6 ядер.
Где перечислены задачи, в которых как раз таки либо производительность особо не нужна, либо нужно больше потоков.
Перечислены задачи, где важна высокая производительность каждого из ядер по отдельности, а не совокупная производительность.
Те же игры: если смотреть игровые бенчмарки, то AMD стабильно проигрывает Intel. Как это ни странно, но интеловские 8/8 и зачастую даже 4/4 и 4/8 оказываются лучше амдшных 12/24.
Играм, офисным приложениям, браузерам, средам разработки не нужно настолько много потоков. Им важна производительность ядер. А выгода от большого числа потоков видна, в первую очередь, в синтетических тестах и специализированных задачах.
Да, 9900k превосходит в играх 3700 — в fullHD на 15-30 кадров из 200+, в 4к — кадров на 5 из 100+, но при этом стоит не на 5% дороже.
К тому же, задолбали постоянные игры Intel c сокетами не той системы (купите такой же, но новый), голосую рублём против.
К тому же, задолбали постоянные игры Intel c сокетами не той системы (купите такой же, но новый), голосую рублём против.
К сожалению, Zen 3 будет тоже работать на новом сокете. Не получится сейчас собрать систему "на вырост".
Это вы взяли там же, где нашли тесты, в которых 4/4 ну или хотя бы 4/8 порвали 12/24? Ну то есть пруфы то будут?
Ну вот, например:
https://www.pcgamer.com/best-cpu-for-gaming/
Переход на новый сокет будет только с переходом на DDR5 (и PCI-E 5), про Zen 3, который будет 4-м поколением — таких заявлений сделано не было.
Что увидел при запросе "google zen 3 socket", то и написал.
Закрыл ссылку.
Мой гугол по тому же запросу отвечает, что в Zen3 не будет поддержки DDR5 для сохранения совместимости с прошлыми материнками.
Пузырь фильтров в действии?
судя по графикам, в большинстве случаев, 9700k быстрее, чем 9900k, отличный подбор тестов
А почему это вас удивляет, когда речь идёт об играх, которым 8 потоков хватает за глаза?
И естественно, все тесты — 2080Ti @ FullHD, топовое железо берётся именно ради этого, ага.
Ну вот вам тесты в 4K:
https://www.eurogamer.net/articles/digitalfoundry-2019-amd-ryzen-7-3700x-review?page=2
P.S. Я, если что, до сих пор сижу на Sandy Bridge. Планирую апгрейдиться — во многих новых играх производительность уже начинает упираться в проц.
А совместимость сокетов мне побоку — к моменту очередного апгрейда будет уже DDR-5 в массах.
Больше ядер — ниже частота одного ядра — ниже производительность в приложениях, которым хватает и небольшого числа ядер. А вы почему-то эту логику считаете ущербной. Ну что ж, ваше право так считать.
Смотрел тесты — 9900KS смогли заставить работать как обещалось на всех ядрах 5Ггц без троттлинга только с топововым водяным охлаждением.
Физика — злая дама.
ведь 12 ядерный 3900x в однопотоке разгоняется до 4.6 ггц.
а 6 ядерный 3600 аж до 4.2ггц.
4.2>4.6
Ну и меньший объём кеша положительно сказывается на однопотоке.
Threadripper домой все-таки избыточен.
Только без серьезной переплаты по деньгам (как за сам процессор, так и дорогую платформу) и адской печки, которую очень желательно водянкой охлаждать, чтобы получить приемлемый для дома уровень шума от СО.
И как раз советовал, что для работы дома с многопоточными нагрузками будет лучше ограничиться R9 3950X. С ним да, почти любая качественная «башня» нормально справится при небольшом уровне шума. NH-D15 тут даже немного перебор, можно чего и попроще взять.
Ставим все обновления на винду. К сожалению, понять что именно так влияет — не возможно
Скорее всего — фрагментация влияет. Именно из-за установки обновлений самой по себе, а не патчей.
SSD обходят это узкое место из-за высокой скорости случайного доступа и принципиальной размазанности данных.
Если проц даже на целую 1мс станет дольше выполнять IO-запросы из-за патчей, то на HDD с их 50-150 IOPS вы потеряете не больше 0,16 IOPS'а. Которые с лихвой сожрутся разросшимся индексом, требующим дополнительно 3-4 iops на чтение.
То же самое на SSD приведет к выжиранию проца и падению производительности, если SSD слишком быстр.
Вин10 на HDD — это лютое извращение. Там уже 7 плохо себя чувствовала.
SSD, если контроллер у него не JMicron, ускоряет даже Atom 330/Zacate E-350. Так что решение в любом случае верное.
Каджит года три-четыре назад из похожей ситуации вышел иначе: FreeBSD, ctld, ZFS. И нафиг локальные диски вообще.
Но нужна Windows 8 и выше, иначе через iSCSI не ходит unmap.
Сейчас тот же стек можно поднять на базе linux + targetcli.
Легаси...
Из медицинского я только DICOM сопрягал с томографом. Там была смешная ситуация: версия ПО на сервере была на пару мажоров больше, чем на клиентах.
Причем из двух компов, предназначенных докторам и шедших в комплекте, нельзя было обновить ни один. Зато второму можно было добавить еще один узел DICOM в настройках.
Итоговая конструкция выглядела так:
- комп-обслуга томографа, со старым DICOM и без доступа к настройкам
- второй комп, связанный с первым, со старым DICOM и возможностью добавить еще один узел
- третий, нормальный комп, с нормальной версией софта, за которым делалась основная работа со снимками, добавленный как дополнительный узел второму
- DICOM-сервер, с актуальной версией ПО
Синхронизация на тот момент была возможна только ручками…
Так и жили.
Возможно, если поставить побольше PCIE 4 устройств — станет заметно.
С другой стороны процессор будет меньше простаивать в ожидании данных с диска, с видеокарты или от сети, и поэтому сможет сделать больше работы за тоже время потребив пропорционально большее количесвто ЭЭ.
Ну и амд со своими чиплетами может наращивать ядра в процессорах гораздо проще, чем интел у которого все на одном кристалле.
Очень хочется третьего игрока на рынок. Чтобы пятки горели у всех.
Тогда смогут появиться сотни стартапов с новыми процессорами на открытой архитектуре.
Я имею в виду, конкурентноспособного игрока на x86, имеющего долю рынка и мешающему олигополической псевдоконкуренции от двух игроков.
Intel отлично может при
Скорее всего будут АРМы и Риск5 всякие.
Интел не просто так под чистую проиграли войну на рынке мобильных процессоров.
Уж как привлекательно не выглядел х86 на телефоне, оно не взлетело, ибо по эффективности не стояло рядом с АРМами.
Хотя не совсем понятно что именно отражает этот график. График вроде бы построен по базе CPUBenchmark, т.е. видимо это домашние процессоры. Если учитывать серверные, то все будет куда печальнее.
На серверном у АМД сейчас всё тоже стало получше, уже к 5% стремятся продаж, так что все шансы начать отжимать и серверный рынок у них большие за счёт эпиков на втором зене.
Думаю что с чиплетным подходом у АМД есть все шансы переломить серверный рынок под себя. Ограничения на выделяемое тепло в серверах гораздо выше, чем в домашних компах и сервера обычно не апгрейдят особо, а меняют целиком так что под одну крышку можно засовывать сколько угодно чиплетов и при необходимости просто менять сокет. Ну и частоты в серверном сегменте не так сильно важны как в домашнем. В общем пока что ситуация — сплошной win-win для амд.
Самый мощный из них вероятно станет №1 в мире через пару лет, если кто-то еще более крупного монстра быстрее не успеет создать.
И один из претендентов на первое взятие рубежа в 1 Экзафлоп в одной машине (в ~7 раз мощнее текущего №1).
Хотя не совсем понятно что именно отражает этот график. График вроде бы построен по базе CPUBenchmark, т.е. видимо это домашние процессоры. Если учитывать серверные, то все будет куда печальнее.
А если учитывать монополию AMD в рынке APU для консолей в текущем и следующем поколении?
«полностью открытый для оверклокинга». Покупатели могут завышать множитель настолько, насколько выдержит железо.
Интересно, а распространяется ли это на разгон через увеличение лимитов буста?
Мой 3600 нельзя заставить хорошо бустить т.к. он упирается в лимиты энергопотребления. А один из 3-х лимитов прибит гвоздями и его нельзя менять(по крайней мере в сторону увеличения).
А множителем разгон не интересен т.к. важна производительность в малопоточных приложениях.
А один из 3-х лимитов прибит гвоздями и его нельзя менятьКакой? Как пробовали менять?
Менять пробовал и через райзен мастер и через bios.
Информация о прибитости гвоздями подтверждается саппортом гигабайта. Ограничение со стороны ЦП.
На разных платах не меняется по разному. Варианты:
1)В биосе нельзя крутить значения.
2)В биосе значения крутить можно, но если проверить результат в райзен мастер, то он не меняется. Ну и судя по частотам тоже не меняется.(это мой случай)
3)В биосе значение меняется, в райзен мастер оно тоже видно изменённое. Но всё равно есть скрытый лимит. Т.е. допустим изначально лимит был 100, ты поставил 150, в райзен мастере увидешь 150, но использование этого лимита будет не больше 67%.
Информация о прибитости гвоздями подтверждается саппортом гигабайта. Ограничение со стороны ЦП.Я думаю, что вас ввели в заблуждение. Ограничения по лимитам на ЦП есть только снизу. В вашем случае это 88 — 60 — 90 (PPT — TDC — EDC).
А вот сверху лимиты ограничиваются в меню материнской платы. У меня на ASUS они находятся в меню Ai Tweaker -> Precision Boost Overdrive -> переключаем PBO в Advanced -> там есть управление каждым лимитом в отдельности.
Ryzen Master меняет лимиты в универсальном для всех плат меню Advanced -> AMD Overclocking, и там они не могут превышать лимиты материнской платы.
Возможно, вы либо не нашли этот Advanced в меню платы, либо вам его порезали (как мне, например, управление Spread Spectrum). Лично я увеличивал себе лимиты, а после обновления на последнюю версию BIOS производитель материнки вообще все, кроме EDC, установил на 10000 по умолчанию.
С ПБО есть другая проблема — зачастую изменения лимитов либо не делают ничего, либо ухудшают ситуацию. У многих, например, на Gigabyte, увеличение EDC уменьшает максимальную частоту одного ядра. А установка его в Ryzen Master на 0 (то есть, фактически, сброс до стандартных для процессора значений) увеличивает эту частоту.
В целом, вы вряд ли упретесь в какой-либо лимит, кроме EDC. Он быстро достигает высоких значений при нагрузке по всем ядрам, пока остальные «курят» на 30-60%.
Но всё равно есть скрытый лимит. Т.е. допустим изначально лимит был 100, ты поставил 150, в райзен мастере увидешь 150, но использование этого лимита будет не больше 67%.В таком сценарии последним, основным и неизменяемым лимитом становится температура процессора. Под какой нагрузкой проверяете частоты?
У меня лимиты находятся там-же где и у вас, + ещё в одном месте. И управляется тоже в отдельности. Только один из лимитов не применяется.
Вроде снизу как раз ограничений нет. Сегодня могу попробовать занизить лимит и посмотрю что получится.
А вы проверяли на практике, возможно превышение базовых лимитов? Такое ощущение, что у вас вариант 3.
Нагрузку давал 2-мя способами:
1)прайм с разным числом потоков.
2)kingdoms come deliverance.
В первом случае я видел, что частота не достигает максимальной 4.4ггц(РВО+200), если потоков больше 3-х. Один из лимитов судя по райзен мастер загружен на 100%
Во втором случая я видел что частота не доходит до 4400. Показания потреблений не смотрел.
Температура процессора не является пределом.
за 70 градусов по ядрам вылезает только при синтетике в 3 потока(максимальная плотность теплового потока) если же в 12 потоков, то даже прайм не прогревает до 70 градусов.
За 80 не переваливает никогда (стоит алерт в биосе, спикер молчит).
И управляется тоже в отдельности. Только один из лимитов не применяется.А какие у вас BIOS и AGESA?
А вы проверяли на практике, возможно превышение базовых лимитов? Такое ощущение, что у вас вариант 3.Я проверял, и установка EDC на стандартное (минимальное) для процессора значение ограничивает частоту в моих задачах на уровне 3900-4000 МГЦ. Повышение в два раза (чтобы перестало быть 100%) увеличивает частоту до ~4100-4200.
Остальные лимиты в моих задачах недостижимы, больше 60-70% я на них не видел.
В первом случае я видел, что частота не достигает максимальной 4.4ггц(РВО+200), если потоков больше 3-х.Это новым Ryzen, к сожалению, свойственно. Я на своем 3900Х тоже вижу 4600 только изредка, и то на рабочем столе в простое. Благо, производительность на ядро меня не интересует от слова совсем, да и производительность зависит не только от частоты процессора.
За 80 не переваливает никогда (стоит алерт в биосе, спикер молчит).Значит вы точно уперлись в EDC и ограничен, вероятно, он. В прайме без лимитов 3600Х прогревается до 100 градусов почти моментально:
Я тоже поддался общему настроению, удрученный высокой температурой (103 градуса под водяным охлаждением!) в разгоне и слабым бустом в авто режиме (на моем Ryzen 3700х лишь чудом можно было увидеть частоту 4350Мгц при полном бездействии ПК!)
Так EDC у меня меняется и его я повысил. проблема именно в одном лимите из 3-х(ppt вроде). и именно в сторону увеличения.
по ссылке прайм без лимитов вызван переходом на фиксированный множитель.
Я себе такого позволить не могу, мне нужен однопоток.
Перечитайте цитату в конце вашего поста. Там 2 ситуации:
1)вначале про разгон на фиксированном множителе и высокую температуру
2)слабый буст при разгоне.
2-я ситуация 1 в 1 моя. Правда у меня лучше, 4350 даже в играх мелькает. Прайм в мало потоков(не помню сколько, но точно не больше 3-х) даже 4.4ггц может.
Важное замечание:
Ryzen 9 3950X имеет 2 канала памяти
Intel i9-10*** имеет 4 канала памяти
При настолько большом количестве ядер пропускная способность памяти уже становится критичной, поэтому интел по-прежнему в фаворе.
Интересно посмотреть сравнение с TR 16/32 с 4-хканальной памятью, но его пока ещё нет.
При настолько большом количестве ядер пропускная способность памяти уже становится критичной, поэтому интел по-прежнему в фаворе.
Для приложений чувтствительных к скорости памяти чаще куда важнее это объем кэша процессора. В АМД его вроде как больше (64+8+1).
Зависит от задачи. Банальная обработка изображений даже на 4-ядернике в память может упираться. Во многих современных играх, активно задействующих многопоток, высокая пропускная способность памяти тоже даёт преимущества, судя по тестам.
В однопоточном режиме — да. Но ожидают чтения сразу много потоков. Иначе какой смысл брать многоядерник?
Да, вклад задержек весьма существенен. Но зачем же тогда разгоняют частоту памяти, раз её вклад невелик?
Разгон памяти не настолько интересен, как смена поколений с sdram->ddr->ddr2->...->ddr5->hmc
2)бывает к частоте памяти прибито что-то ещё. Поэтому с разгоном памяти растёт частота ещё чего-то. Раньше было FSB, сейчас IF на ryzen.
3)Не велик не значит что его нет. Сейчас из процессоров производители выжимают все соки. Может быть гораздо проще разогнать цп на 5%(по производительности, а не частоте)+2% по производительности из-за пропускной способности памяти, чем на +7% по цп.
Потому что задержки памяти задаются в циклах памяти, а не в наносекундах. Т.е. увеличивая частоту памяти, мы уменьшаем задержки
Не-а, мы не можем преодолеть ограничения памяти. Увеличивая частоту памяти, мы пропорционально увеличиваем и задержки памяти, в итоге задержки в наносекундах остаются без изменений.
Можно конечно идти по пути уменьшения задержек при той-же частоте, но зачем?
Потому что эффект от уменьшения задержек проявляется в большем числе задач.
бывает к частоте памяти прибито что-то ещё. Поэтому с разгоном памяти растёт частота ещё чего-то. Раньше было FSB, сейчас IF на ryzen.
А вот это действительно аргумент. В случае с Intel как-то попроще будет, как мне кажется.
Мы разгоняем за счёт запаса для стабильности, который оставил производитель. И за счёт повышения рабочего напряжения.
в моём случае тайминги остались +- одинаковыми со стоком. А вот частота возрасла с 3200 до 3800. Что даёт почти 16% снижение задержек в секундах.
память ballistix aes.
Поэтому гонят и частоту и одновременно снижают тайминги, при этом стараясь остаться в пределах 1,4 В где-то.
Это если у памяти есть потенциал по уменьшению задержек.
Ну да, там частота же ограничена для сборок на младших чипсетов вроде как? А на топовых имеет смысл брать только топовые i7 и i9 с буковкой K, которые при этом не для разгона со слов самого интела…
Разгон памяти и младшие модели процессоров и чипсетов как-то не увязываются в одном предложении.
Плюс если хочется использовать 4 планки памяти вместо двух, то есть риск, что от разгона по частоте вообще придётся отказаться, т.к. контроллер может не потянуть.
Практически любой фильтр по обработки изображений требует не только линейного обращения к непрерывным ячейкам памяти. Но и псевдослучайного когда итерируемся по колонкам пикселей. В таком случае если всё изображение не влазит в кеш процессора, то мы имеем производительность близкую к производительности рандомного доступа к памяти, а это тайминги ras-cas на каждый переход на новую колонку, а также неэффективное использование полосы памяти когда ради одного байта вычитывается 128 байт, и 127 отправляются вникуда. Т.е. грубо говоря если процессор не узкое горлышко, и картинка влазит в кэш процессора то мы имеем производительность на чтение около 50Гигабайт в секунду (привожу ориентировочные цифры моей домашней машины). Если же картинка больше кэша, итерации происходят по колонкам, то мы имеем цифры порядка 500Мегабайт и меньше в секунду.
Эти связи не всегда бывают настолько очевидны. Например, если в системе есть 64 МБ кэш памяти, при запущенном скайпе, по производительности к memorybound алгоритмам она ведёт себя как будто в ней всего лишь 4МБ кэша процессора.
В таком случае если всё изображение не влазит в кеш процессора, то мы имеем производительность близкую к производительности рандомного доступа к памяти, а это тайминги ras-cas на каждый переход на новую колонку, а также неэффективное использование полосы памяти когда ради одного байта вычитывается 128 байт, и 127 отправляются вникуда.
Многоканальность здесь как раз должна помочь. У меня вообще трёхмерные картинки по гигабайту возможны.
Если же картинки маленькие, то молотить каждую 32 потоками может оказаться невыгодно из-за высоких накладных расходов на синхронизацию и делегирование задач. Может оказаться эффективнее обрабатывать одновременно 4 картинки по 8 потока.
Если же картинки маленькие, то молотить каждую 32 потоками может оказаться невыгодно из-за высоких накладных расходов на синхронизацию и делегирование задач. Может оказаться эффективнее обрабатывать одновременно 4 картинки по 8 потока.
При итерации матриц по колонкам — идеальная гранулярность для многопоточности это когда они все влазят одновременно в кэш процессора (при условии что код не frontend/backend bounded). Ну а если алгоритм баундится например по предсказаниям переходов, то там уже всё равно на гранулярность, зависимость не настолько явная (2-3 порядка).
Объекты синхронизации я вообще в своём коде не использую. А вот когда лепишь многопоточность к чужим спагеттям, то зачастую без них уже не выходит.
Гранулярность — это дробление задачи над подзадачи, которые обрабатываются отдельными потоками. Общий объём одновременно обрабатываемых данных — это немного другое.
Да, для эффективной работы неудачно написанной программы нужно, чтобы общий объём данных был в кэше. Но если объём данных небольшой (чтоб в кэш влезло), а потоков много, то гранулярность может оказаться слишком мелкой. Не забывайте, что нельзя делить задачу на количество элементарных подзадач, равное количеству потоков, так как вы не можете быть уверены, что все потоки выполняются с одинаковой скоростью.
Объекты синхронизации я вообще в своём коде не использую. А вот когда лепишь многопоточность к чужим спагеттям, то зачастую без них уже не выходит.
Если вы их не используете явно, то за вас это делает код из стандартной библиотеки (атомарные переменные) или операционная система.
Но если не молотить непосредственно в атомики, а использовать их, например, только в финальном этапе reduce, то такими накладными расходами на синхронизацию можно пренебречь.
Если рассматривать атомарные операции как memory fence, то да :)
Конечно! Если несколько потоков одновременно долбят одну и ту же ячейку, они начинают очень сильно тормозить из-за блокировки шины.
Но если не молотить непосредственно в атомики, а использовать их, например, только в финальном этапе reduce, то такими накладными расходами на синхронизацию можно пренебречь.
А как в таком случае добиться баланса в скорости выполнения между потоками?
А она прямо нужна? Эффективность распараллеливания ==1 на достаточно больших задачах когда не хватает кэша это миф. >0.8 равномерно загружаем работой ядра и вперёд считать. А что про mfence то чем больше потоков тем больше ад, Поэтому если куча потоков на общей памяти то чем больше алгоритм lock-free тем лучше. Ибо одно дело когда ядер на шине 4/8 А когда их 20/60 то каждый атомик это почти гвоздь в крышку гроба
При настолько большом количестве ядер пропускная способность памяти уже становится критичнойЭто целиком и полностью зависит от задачи, далеко не только от количества ядер.
AMD представила процессоры Threadripper — самые быстрые CPU для десктопов