Pull to refresh

Comments 74

Хотелось бы видеть более серьезный тест IO, желательно на жирной базе, с использованием SSD или довольно быстрой дисковой полки.
Подскажите, есть ли уже модели/ревизии десктопных процессоров Core i7, где эти уязвимости пофикшены без потери производительности? А то назрел апгрейд домашнего компа. Уже полгода жду…
Whiskey lake будет иметь часть защит на уровне железа.
UFO just landed and posted this here
виски вроде как только мобильные будут
Есть, но когда будет, не известно (много проблем с техпроцессом, уже должны были 10нм освоить — фактически ещё не получается), и по обещаниям, наконец-то новая архитектура (текущая по факту 10 лет капитально не перетряхивалась и лет 5 — вообще никаких изменений, новую делает автор феномов и рейзнов). Можно только АМД предложить, 2700х весьма и весьма хороши, в многопоточке быстрее, чем десктопные и7, в однопотоке — примерно такие же (зависит, в частности, от памяти — на АМД очень большой прирост от оной). Большей части уязвимости в них нет (поэтому и пенальти сильно меньше) — Epyc это фактически 4 кристалла рейзна 1800х на одной подложке, соединённые шиной, 4-процессорная система в одном сокете и 8-процессорная — в двух.
Сколько не видел тестов, 2700x проигрывает даже i5-8400. Как может быть быстрее 4ггц ядро ядра 5 ггц. Причем проигрывает до 20%.
Вы верно шутите, потому что Ryzen 7 второй генерации, почти не отстает от i7 8700K, спокойно обгоняя i5.Правда и стоит он теперь как i7.
Не шучу. Легко это понять тестируя игры. Первый попавшийся обзор.
Во всех играх (с небольшими исключенями) ryzen загружен на 20-30% и выдает условные 100 fps, в то время как 8700k загружен на 40-60%, выдавая 120-130 кадров.
Мало того, для ryzen нужна очень хорошая память.

Повторюсь, речь идет про производительность на ядро. И по моему мнению, это более важнее чем общая производительность. Мне нравится как в обзорах постоянно записывают в плюсы большие возможности рендеринга и самое главное — говорят так будто каждый второй включает компьютер и сразу запускает какой-то рендер.
По факту, даже если ядро интела медлнее ядра амд, интел решает за счет частоты и это факт. А апеллировать к малому количеству ядер у интела уже нельзя потому что 6 ядер.
144Гц монитор тоже далеко не у каждого второго.
У меня 165, например. Но что это меняет?

Объясняю.
1. Количество кадров снижается на всех разрешениях. В абсолютном количестве на малых разрешениях — сильнее. Вполне может быть что вместо комфортных 60 получится 55.
2. Мне показалось что вы думаете что 120 кадров на 60гц мониторе не надо? Нет, как раз надо и очень даже: больший запас можно оставить на v-sync (садит минимум на 10%) или fast-sync (вообще требует раза в два больше кадров, такая концепция); из-за видимой разницы в следствии неодинаковой скорости отрисовки кадра (буквально при 60 кадрах задержка в пол кадра будет очень видна, при 120 — нет).

Надеюсь, расписал понятно.
Зачем рисовать больше кадров, чтобы часть из них «оставить на v-sync»??? Когда вместо рисования можно просто «поспать» ровно столько же времени сколько рисуется еще один кадр… Я тут чуть ладонью лоб не пробил… v-sync он на то и существует, чтобы рисовать столько же кадров, сколько умеет показывать отображающее устройство, читай монитор.
Вы ведь не серьезно, правда? V-sync значительно увеличивает задержку ввода. Геймеры часто готовы получить картинку с разрывами в обмен на более быструю реакцию. Я никогда и нигде, кроме каких-нибудь карточных игр, не включаю vsync именно по этой причине — управление начинает «плыть».
Потрудитесь объяснить с технической точки зрения каким образом «v-sync значительно увеличивает задержку ввода». Ну то есть имеется некая sleep(10ms) после рисования очередного кадра, во время которой по прежнему обрабатывается ввод и вывод и вообще всё что можно, но только не рисуется картинка. Каким образом sleep влияет на задержку ввода?
Игра получила ввод. Нарисовала с учетом этого ввода кадр. Ждет всинка 10 мс. Итог — юзер видит результат своего ввода на 10 мс позже. Ввод может обрабатываться в эти 10 мс сколько угодно, но юзер этого не почувствует никак вплоть до следующего кадра. Если видеокарта выдает 250фпс на 60 Гц мониторе, то в момент, когда монитор начнет отрисовывать последний кадр, этот кадр будет содержать гораздо более актуальный ввод, нежели при случае с 60 фпс при 60 Гц мониторе.
Иными словами, при 60Гц мониторе, с включенным всинком вы получаете переменную 0-16мс задержку ввода (в зависимости от того, когда кадр был нарисован относительно синхронизации монитора). В то же время, при стабильных 250 FPS на 60 Гц мониторе вы получаете задержку в стабильные 4 мс.
Хорошо, у нас есть заранее неправильно спроектированная игра с SDL-like вводом, это когда основной цикл игры выглядит так:
1. информация о вводе
2. отрисовка кадра и sleep
3. goto 1
При всем при этом отрисовка кадра игры синхронизируется не по sleep а по неким внутренним счетчикам, ну то есть на сколько градусов надо повернуть скажем башню, за кадр (важно). При этом каждый кадр с синхронизацией остается актуальный для каждого ввода.
Теперь тоже самое без синхронизации, имеется внутренний счетчик времени, кадров рисуется до одурения много и опросов ввода так же много, но актуальных кадров (которые мы видим на мониторе) ровно столько же, кажем 60, т.к. монитор больше не умеет, и угол поворота башни будет ровно таким же как без синхронизации. Просто в одном случае мы спали, в другом были заняты рисованием «невидимого кадра» от «ненужного» ввода. Так и в чем разница? Ну вводов больше, кадров больше, актуальных кадров и актуальных вводов ровно столько же.
Грубо говоря, если игра выдает 240 кадров и 240 раз в секунду опрашивает клавиатуру/мышь. То на экране то мы видим только 60 из этих кадров, это 1 из 4х кадров и 1 из 4х опросов устройств ввода, притом, что этот кадр абсолютно такой же как и кадр нарисованный с синхронизацией. И башня повернута на столько же градусов. Ну я не спорю могут быть какие-то погрешности, но не такие о которых вы говорите. Сам монитор так же может давать значительную задержку при отрисовке им кадра, как и видеокарта на выходе, но это уже железный вопрос, а не софтовый. И ВК не будет пихать в монитор 240 кадров, это будут все те же 60 кадров. Ни стандартные HDMI ни DP не способны передавать 240 кадров/сек, ни FHD, ни особенно 4k.
> Грубо говоря, если игра выдает 240 кадров и 240 раз в секунду опрашивает клавиатуру/мышь. То на экране то мы видим только 60 из этих кадров, это 1 из 4х кадров и 1 из 4х опросов устройств ввода

Совершенно верно. Экран не нарисует в итоге больше 60 кадров, так что 180 кадров и 180 опросов ввода пропадут впустую. Я с этим не спорил. Я говорю, что без всинка тот ввод, результат которого все-таки «попадет» на экран, будет более актуален.

Давайте рассмотрим ситуацию с всинком (60 фпс) и без (240 фпс) на 60 Гц мониторе. За t=0 возьмем время момент отрисовки последнего кадра.

t=-4ms
Всинк — юзер двинул мышкой вверх, обновили ввод,
нарисовали кадр с учетом того, где камера при таком вводе должна оказаться через 16 мс.
Без всинка — юзер двинул мышкой вверх, обновили ввод, нарисовали кадр с учетом того, где камера при таком вводе должна оказаться через 4 мс.
t=0ms
Всинк — монитор вывел кадр. Ждем 16 мс…
Без всинка — монитор вывел кадр.
t=4ms
Без всинка — обновили ввод, ничего не изменилось, нарисовали кадр.
t=8ms
Без всинка — обновили ввод, ничего не изменилось, нарисовали кадр.
t=12ms
Без всинка — юзер дернул влево, обновили ввод, отрисовали кадр с учетом поворота влево.
t=16мс
Всинк — на экран выведен кадр с учетом только ввода вверх, ввод влево никак не отражен.
Без всинка — на экран выведен кадр с учетом ввода за последние 12 мс, и вверх, и влево.

Неважно, сколько кадров/сек передает монитор, ввод на момент вывода картинки будет более актуален, если игра рисует больше кадров. Но конечно, еще лучше, если монитор способен физически выводить 120+ Гц.

И я не понимаю, почему вы так яростно теоретизируете — это не гипотетическая проблема, которую нельзя пощупать, достаточно включить в любой игре всинк. Не будете ведь убеждать, что это эффект по типу плацебо?
> Экран не нарисует в итоге больше 60 кадров, так что 180 кадров и 180 опросов ввода пропадут впустую.
Уточнение, только 180 кадров пропадут, так как не будут выведены на экран. Ввод не пропадет.
И да. По вашему «неправильному» циклу работает подавляющее большинство игр.
Я никогда и нигде, кроме каких-нибудь карточных игр, не включаю vsync

Я вам советую попробовать free-sync или g-sync. Мой новый монитор как раз с g-sync и теперь везде выключаю v-sync. По итогу:
1. снижается нагрузка на видеокарту;
2. уменьшается, несколько это возможно, задержка;
3. картинка так же без разрывов.

Только достичь пока где-либо 165+ сложно потому что 970 слабовата для uwhd.
Буквально вчера приехал монитор с G-Sync @ 165 Hz, так что да, поддерживаю :) Моя 1060 тоже слабовата, но даже мышиный курсор теперь плааавный, кайф
Asus, угадал? Надеюсь, брали с ips.

Скоро выход новых 20** карт и 10** должны стать дешевле. Уже становятся, собственно.
AOC AGON AG271QG — намного менее «геймерский» дизайн, плюс еще и дешевле заметно. IPS, конечно.
К сожалению, апгрейд видеокарты у меня возможен вместе со всем ноутбуком %)
Не знаю, разница между ними процентов 15. Но оба вполне достойные.
Для меня конечно решает отличная регулировка высоты. Собственно, предыдущий PB278Q тоже был с ней :)
15% для вас не «заметно дешевле»? :) С регуляцией высоту у AG271QG все хорошо, разве что хотелось бы возможность еще чуть ниже опускать.
Сейчас со скидкой разница 10%. Без скидки примерно одинаково.
Заметно дешевле это все же когда 1080ti стоила 900+, а сейчас уже есть за 650.
Возможно, у Вас так. В моем случае получалось минимум на $150 дешевле чем конкуренты.
Но, кстати, G-Sync вносит свою задержку — около 2мс.
Тут можно вспомнить задержку восприятия и все такое. Может кто и замечает такие малые задержки, но обычный человек вряд ли.
Дык ведь оно идет в дополнение к задержке восприятия. 4 мс задержка самого монитора, 2 мс задержка G-Sync, еще эдак 8 задержка ввода, etc… В сумме получается достаточно заметно.
При жестких требованиях для игр вроде кс го в любом случае берутся быстрые tn-мониторы.

Так-то процент шутеров, наверное, не более 10%. В них можно и потерпеть если что, при этом наслаждаться в 90% других игр. Все же не понимаю этого требования к задержке.
UFO just landed and posted this here
Выше уже сказали же, что еще от памяти зависит. И что мы видим в тесте?
у i7 память 2х8 Patriot Viper 4 PV416G373C7K @ 3733 МГц (XMP)
а у ряженки 2х16 G.Skill Trident Z @3200 МГц (14-14-14-14-28)

Во всех играх (с небольшими исключенями) ryzen загружен на 20-30% и выдает условные 100 fps, в то время как 8700k загружен на 40-60%, выдавая 120-130 кадров.

А это в потоки упирается. т.е. исопльзуется одинаковое количество, а загруженность разная, так как ряженка умеет больше.
Вот есть наглядный тест правда i5/2600x, для меня там разница в районе погрешности, и разница больше от движка зависит (может оптимизации какие компилятором под процы?).
Ну и везду форсируемый «плюс» воткну: у амд сокеты реже меняются, а так же под крышкой не термопаста.
Ни к чему не призываю, выводы каждому свои :)
Заголовок спойлера

Не обратил внимание на память, да. Как правило, сколько не видел тестов — везде одинаковая ситуация.
И вот вы приводите пример с 8600k с 2700x. Тестируется более слабая модель с самой сильной, но мало того, еще и со вторым поколением.

Я не к тому что кто-то однозначно круче кого-то. Важна объективность. У интела нет припоя, сокеты слишком часто меняются. У амд процессоры почти всегда слабее в однопотоке и сильнее в многопотоке.
Для себя все же выбрал интел — мне очень важна скорость одного ядра. А что до многоядерности — не стримлю и не рендерю — мне хватило бы и 4 ядер, 2 дополнительных скорее приятная добавка.
Еще хочу заметить что по прикидкам в комментах на профильных ресурсах, амд получаются если не дороже, то и не дешевле сборки с интелом. Все из-за недешевых новых процессоров и очень дорогой памяти.
2600x там, а не 2700х. Так что после второго абзаца можно было ничего и не писать.
Для десктопных процессоров материнки для LGA 1151 намного дороже, чем AM4 в сравнимых категориях. (по крайней мере весной так было)
И что мы видим в тесте?
От памяти в играх сильно зависит только Ryzen, если мне не изменяет память. Потому что у него на частоту памяти завязана шина, по которой общаются ядра между собой и с периферией. C Intel выигрыш будет ощутим в тестах и специализированных задачах, потому что частота памяти кроме самой памяти ни на что не влияет.
> Легко это понять тестируя игры.

Вот чёрт, а я не тестирую игры (и даже не играю в них).
Если вы на компьютере только и делаете, что в игрульки шпилите, то проблема уязвимостей в процах для вас вообще не актуальна, и зачем вы тут всё это пишите — непонятно.
Я не знаю цен в рублях. Да и не объективно это. На амазоне первый стоит 360 (но я покупал месяц назад за 350), второй стоит 320. Разница примерно 30 долларов.
Выше я отметил что амд требует очень хорошую (=дорогую) память.
То на то и выходит.
На CU цены сейчас такого порядка:
i7-8700k — 321,84 € 25 643 руб.
Ryzen 2700x — 274,78 € 21 893 руб.
В России цены с НДС, выше привел.
UFO just landed and posted this here
UFO just landed and posted this here

Разница где-то 6.5-7 раз по сравнению cblas/lapack ну 3-5 раз по сравнению с atlas.Но это не на Рязани это на бульдозерном оптероне 6230

UFO just landed and posted this here
А откуда 5 ГГц? 8400 даже в турбо-бусте такой частоты не достигает (там предел — 4 ГГц и то, если нагружено одно ядро, что практически недостижимо в реальной жизни), а у 2700x потолок разгона тоже где-то в районе 4 ГГц.
Честно говоря, много думал о рязани, с момента её выхода. Останавливает более сложный подбор компонетов (например, память), это же надо часами оверклокерзы штудировать. С интелом как-то проще. Дождаться ревизии 8700k (ну или более нового поколения) и всё. Вот и жду :(
Веб-сервер Nginx на протестированных системах Xeon на ядре Linux 4.19 показал разницу в производительности до 20%. Так то это совсем не кисло, 20%
Крайне любопытно и обратное: если машина у меня физическая, и она строго «моя» (а выжать скорости хочется побольше), там никого, кроме меня, нет, то — что можно и будет разумным отключить, чтобы скорость падала не сильно?
Да, конечно, всякие кластеры и прочие HPC/HPE не будут патчить все узлы чтобы разом потерять 7-16 % а с нарушителями там проще бороться административными мерами.
Да и стоящий под столом «серверок для меня одного» особого смысла не имеет патчить — поэтому вопрос лично для меня очень интересен.
Тем более что проблем нашли довольно много, и не все уже следят за ними пристально, зато обновления к ОС регулярно привносят в работу сервера ту или иную «мелочь» в смысле защиты — порой, как в описанном случае, даже и не нужной.

Так вы не знаете ответа?
ну насколько мне известно для meltdown/spectre нужен запуск на железе своего кода т.е. либо rce либо malicuous скрипты в браузере(вроде было демо что можно триггернуть из js) для foreshadow насколько я понял тоже, причем ещё и чтобы атакуемое приложение было на smt сестринском треде физического ядра, что тоже означает что нужна rce
Если у вас не выполняется чужой код, которому вы не доверяете вроде javascript с сайтов, то можете не патчиться.
Так я не против не патчиться, но apt upgrade делать выборочно — это самому себе проблемы создавать. А про возможность общесистемно сказать «мне защиты от дыр в процах не надо» я как-то не знаю…
UFO just landed and posted this here
Отлично, а есть специальные оптимизированные сборки windows 10 специально для гейминга с прирублинными всеми патчами? Больно fps не охота терять.
есть, конечно, они обычно построены на LTSB-ветке и дополнительно отключены следящие сервисы…
а на десктопе может все будет еще печальней — топовые процы ведь самые быстрые…
Интересно бы было увидеть как коррелирует потеря производительности с количеством системных вызовов, прерываний и переключений контекста для каждой конкретной бенчмарки.

Что не так с Xeon Gold в тесте Hackbench? Почему об этом ни слова?

Предполагаю, что мы имеем дело с очередным дизельгейтом(как у Фольсквагена): ради улучшения некоторых показателей (производительности) Intel (а вслед за ней и AMD) перестала обращать внимание на ухудшение безопасности. Всё ради того, чтобы обогнать (или не сильно отстать) конкурента. Надеялись, что никто эти проблемы никогда не заметит и не проверит их добросовестность.
Про амд поподробнее. На нём только одна(Спектр) уязвимость есть, и та практически бесполезна для всех.
Sign up to leave a comment.

Articles