Pull to refresh

Comments 361

Я уже ощущаю зуд в районе кошелька, очень уж хочется воплотить наконец-то одну давнюю задумку. С Интел выходило бы дороговато, а с АМД жаба может и ослабить железную хватку на горле.
я уже поощущал жжение в другом районе, я недавно воплотил наконец-то одну давнюю задумку как раз с Интел.
Сразу видно, что жаба у вас более слабая, сильно не душит. Моя — как Карелин :)
Компьютер по цене процессора Интелimage

это Eclipse – P400 или P400S (Silent Edition)
гугл говорит что в районе $80

Хоть и сторонник AMD но всё время поражаюсь их логике, они постоянно сравнивают свою новую линейку с текущей линейкой Intel. И как обычно Intel выпускает новую линейку лучше. Почему не думать о перспективе и не сделать линейку с большим запасом мощности((
Если бы они так могли сделать — с удовольствием бы выпустили. Но на самом деле в ближайших новых линейках Intel ожидаются только 6 ядер в десктопном сегменте на Coffee Lake и Skylake-X для High-end, и Skylake-X скорее всего будет процентов на 5-10 (и это оптимистичные оценки!) быстрее Broadwell-E на равной частоте.
С учетом что за 4 предыдущих поколения они смогли из себя выдавить только около +20% (при одинаковом кол-ве ядер и частоте) скорости, то ничего кроме опускания цен на 6-ядерные камни до вменяемого уровня от них ожидать не стоит.
на самом деле неизвестно что интел может. у них просто стимула не было повышать производительность сильнее. так… слегка стимулировать граждан к покупкам. а вот теперь, если amd не сядет в лужу как в прошлый раз, мы и посмотрим что у intel есть в загашнике…
На мой взгляд, начиная с Ivy Bridge, Intel занималась оптимизацией энергопотребления (и неплохо в этом продвинулась) и улучшением GPU (вроде бы тоже, мне трудно судить).
Можно и так сказать — для серверов и ноутбуков основной прогресс в энергоэффективность ушел (вычисления / 1 Вт мощности).
Для десктопов и ноутбуков — во строенную графику, которая сожрала большую часть прибавившихся за счет перехода на новые тех. процессы количества транзисторов.
В 6м поколении (skylake) даже в i7 графическая часть занимает уже больше площади кристалла и транзисторного бюджета, чем собственно сам процессор.
image

По графике прирост и правда очень солидный — от полной убогости в первых поколениях, до вполне приличного низкобюджетного решения.

Правда все-равно далеко до возможностей любых полноценных видеокарт. И даже все-еще отстают от встроенных графических модулей конкурента (гибридных APU от AMD)
В 6м поколении (skylake) даже в i7 графическая часть занимает уже больше площади кристалла и транзисторного бюджета, чем собственно сам процессор.


И лично мне это совсем не понятно. Абсолютное большинство людей вообще не пользуется встроенной графикой на i5/i7 какой бы хорошей она не была, лучше бы это место отдали под доп. ядра, а графику оставили в low-end и мобильных решениях. Надеюсь после пинка от амд до них эта мысль дойдет.

зачастую интегрированная графика используется в том случае, если компьютер собирается постепенно, когда денег нет на сборку всего и сразу, интеграшка дает возможность использовать компьютер хоть как-то, не дожидаясь покупки нормальной видеокарты

Или для офисов и другой работы, когда в навернутые игрушки играть вообще в принципе не предполагается.
Для работы современных встроенных видеоблоков более чем хватает.

Последние лет 5 в офис новые машины исключительно со встройками покупаем — либо APU от AMD либо реже i3(пару штук), ну и директору один i7 купили, хотя по большому счету он там и не нужен.

Единственная претензия к Intel, в том, что они поленились отдельный вариант без встроек выпустить и те кого дохлые встройки не устраивают но нужен мощный процессор (чтобы дополнить его мощной же видеокартой) по сути вынуждены переплачивать за не нужную им почти половину процессора.

У AMD все стройно и логично. Устраивает слабая графика и нужно сэкономить купив бюджетное решение 2в1? Вот вам APU. Нужен мощный процессор и при этом не переплачивать за графический блок, которым все-равно не будете пользоваться т.к. к достаточно мощному ЦП в комплекте пологается и полноценная видеокарта?
Вот вам FX серия (а теперь Ryzen)
Есть 2011 без графики, но прирост там не сказать, что космический.
Ну там хотя бы количество ядер увеличилось. На что и ушли дополнительные транзисторы появившиеся за счет перехода на новые тех.процессы, вместо спускания их на встроенную графику в массовых решениях.

Что дает хороший прирост в ПО которое умеет полноценно много вычислительных потоков использовать.
Абсолютное большинство как раз пользуется встроенной графикой, поэтому у Intel первое место на рынке графических процессоров.
Ну а как сравнивать что-то с будущей линейкой, ее же нет. Да и запас, судя по всему, есть. Процессоры, похоже, очень быстрые будут, даже если Intel прилично улучшит следующее поколение, Рязань все равно должна остаться конкурентноспособной в текущем виде, а потом и ее улучшить можно будет дальше. Главное для AMD, имхо, начать продавать дорогие процессоры, чтобы было больше денег на R&D
Вы не учли того, что красные безнадёжно остали на много лет со своими FX, ставшими в наши дни объектами поклонения у широких масс с бюджетом 100$ на всю сборку, включая стол, стул и периферию.

Чтобы смотреть в завтрашний день, надо хотя бы очутиться в сегодняшнем. Ryzen в кои-то веки даёт красным вернуть позиции хоть как-то. Первое поколение наконец поступает в продажу, а там и не за горами прямая дорога в будущее, всё в их руках.
AMD серьзёно отстала от Intel с выпуском Sandy Bridge 6 лет назад. С тех пор рост производительности процессоров Intel сильно замедлился — 5-10% на поколение, а это очень медленно. Возможно, причиной было доминирующее положение.

Сейчас же AMD удалось догнать процессоры Intel по производительности. Производительность одного ядра Ryzen, конечно, не дотягивает до Skylake, но уже немного превышает Sandy Bridge. Очень надеюсь, что это приведёт к полноценной конкуренции и более быстрому росту производительности процессоров.
вы статью читали? на картинки смотрели? с чего вы взяли, что skylake быстрее ryzen?
с чего вы взяли, что skylake быстрее ryzen?

Производительность одного ядра Ryzen, конечно, не дотягивает до Skylake, но уже немного превышает Sandy Bridge. Но AMD опять берёт верх числом ядер.

Я уже довольно много статей почитал, и доверия они у меня не вызвали — пока что всё вилами по воде писано, но в большинстве случаев i7 6900K оказывался быстрее. Нужно ждать официального релиза и честных тестов.
да, посчитал, действительно выходит 200 против 240 скайлейка, грустняво, но цена всё равно хороша.
Делить результат на кол-во ядер в тесте, который далеко не идеально масштабируется с ростом кол-ва вычислительных потоков бестолковое занятие. Да еще на процессорах с весьма сильно отличающимися частотами работы (i7 7700k 4.2/4.5 ГГц, R7 1800X 3.6/4.0 ГГц).
Тут надо прогонять тесты на высокочастном варианте R3 или R5 с 4/6 ядрами, чтобы корректно сравнивать с 4х ядерными Skylake без экстраполяций.

А пока видно, что при одинаковом кол-ве ядер и частоте скорость получается примерно на уровне 5-6 поколений iCore, а до Skylake если и не дотягивает, то совсем немножко.
Даже если эти 200/240 взять, то это ~20% разницы по скорости на 1 ядро при ~15% разницы по рабочей частоте.
UFO landed and left these words here
Согласен. Хоть и сам поклонник Intel, но пинка им дать давно как пора! Надеюсь, возрождение AMD, как производителя конкурентоспособных процессоров, этот пинок им обеспечит.
Ну если следующее поколение процессоров intel даст прирост производительности такой же как два прошлых, то Ryzen все-равно в игре.
Без повышения частоты производительность на поток дешево расти не будет.
Сейчас есть только два варианта существенного роста — «идеальный кеш» и «идеальные предсказания». А для этого нужен большой объем памяти рядом с ядром, загрузка алгоритмов в кеш-контроллер и BPU, реализация суперспекулятивности, когда иногда обе ветки выполняются одновременно, но на разных ядрах.
Можно просто увеличить параллелизм внутри одного ядра — увеличить кол-во исполняющих блоков и пропускную способность декодера инструкций, вместо простого увеличения количества одинаковых ядер.

Но это потребует разработки ядра практически с нуля, а не умеренного тюнинга уже существующей архитектуры типа добавки кэша или подкручивания предсказателя переходов.

AMD на это решилась и практически в один прыжок ликвидировала отставание от лидера, который до этого 5 лет постепенно уходил в отрыв 6 раз подряд оптимизируя одну и ту же базовую архитектуру iCore вместо разработки новой.

Так же как когда-то сама Intel решилась закопать бабушку выкинуть NetBurst на свалку и сделала огромный скачок с переходом на Core.

Забавно как компании в очередной раз поменялись ролями.
Я уже думал про дополнительные исполнительные блоки. Рост может быть только в очень специфичных задачах. Так что не подходит.
Лучше уж сделать как в Power8. Его ядро можно представить как два, которые на однопоточной нагрузке объединяются. Тем самым увеличивается количество доступных ФУ.
Заголовок спойлера
Most instructions (except for branches and condition register logical
instructions) are processed through the Unified Issue Queue (UniQueue),
which consists of two symmetric halves (UQ0 and UQ1).

There are also two copies of the general-purpose (GPR0 and
GPR1) and vector-scalar (VSR0 and VSR1) physical register files. One copy is
used by instructions processed through UQ0 while the other copy is for
instructions processed through UQ1.

The fixed-point, floating-point, vector, load and load-store pipelines are
similarly split into two sets (FX0, FP0, VSX0, VMX0, L0, LS0 in one set, and
FX1, FP1, VSX1, VMX1, L1, LS1 in the other set) and each set is associated
with one UniQueue half.

In ST mode, the two physical copies of the GPR and VSR have identical
contents. Instructions from the thread can be dispatched to either one of the
UniQueue halves (UQ0 or UQ1). Load balance across the two UniQueue
halves is maintained by dispatching alternate instructions of a given type to
alternating UniQueue halves.


In the SMT modes (SMT2, SMT4, SMT8), the two copies of the GPR and VSR
have different contents. The threads are split into two thread sets and each
thread set is restricted to using only one UniQueue half and associated
registers and execution pipelines.


С декодером проблем нет.

Вот моделирование для 16-wide issue processor с идеальным кешем, идеальным предсказанием:

image
Ещё немного и вы Hyper-Threading заново изобретёте.
HT увеличивает многопоточную производительность. А я про однопоточную.
Его ядро можно представить как два, которые на однопоточной нагрузке объединяются.

Ну так вы только что описали HT.

Нет, это не HT.
При on/off HT количество доступных исполняющих устройств на поток не меняется.
Я же пишу про HT наоборот, когда поток может получить доступ к ресурсам второго ядра.
При on/off HT количество доступных исполняющих устройств на поток не меняется

Это почему же? При включённом HT два потока, выполняющиеся на одном ядре, вынуждены пользоваться общими ресурсами ядра. Поэтому при включении HT количество доступных ресурсов уменьшается пропорционально загрузке.

Мне нужно было написать "возможно доступных исполняющих устройств".
Так как HT не меняет их количество.

Еще раз. Я писал про производительность НА ПОТОК.
Человек предложил повысить количество ФУ. Но это мало что даст, т.к. очень мало задач требует большего числа ФУ, да и это редко является узкой частью из-за промахов кеша и ложных предсказаний. И раздувать ядро ради нескольких процентов в некоторых задачах как-то глупо.
Вот я и предложил сделать тесно связанные ядра, чтобы на ОДИН ПОТОК можно было использовать ресурсы второго ядра.
Это и есть «HT наоборот», когда два ядра обрабатывают один поток для увеличения ОДНОПОТОЧНОЙ производительности.
Когда как HT делит часть ресурсов одного ядра, чтобы загрузить их по максимуму для увеличения МНОГОПОТОЧНОЙ производительности.
Это и есть «HT наоборот», когда два ядра обрабатывают один поток для увеличения ОДНОПОТОЧНОЙ производительности.
Когда как HT делит часть ресурсов одного ядра, чтобы загрузить их по максимуму для увеличения МНОГОПОТОЧНОЙ производительности.

Принципиальной разницы между этими решениями нет. В обоих случаях имеем логические ядра с разделяемыми ресурсами.

Разница в цене, так как она имеет нелинейную зависимость от сложности ядра.
И вот тут пара простых ядер намного дешевле, чем одно суперядро.
Да и для многих задач не нужны большие ядра.
Так что это только на бумаге 1+1 = 2 и 2/2 = 1
Пара простых ядер будет медленнее чем одно сложное. Пример — Atom, в котором применили простые ядра (насколько я помню без поддержки суперскалярности). Как результат — значительная потеря производительности.
В атомах главная проблема (по крайней мере в старых, за новыми не следил) был отказ от out-of-order execution (внеочередного исполнения команд)

Из-за чего ФУ часто по долгу простаивали — в ожидании подгрузки данных из памяти (или в лучшем случае кэша) или завершения предыдущего вычисления из которого нужно использовать результат как входные данные следующего.
Так OoE (иначе называемая суперскалярность) и есть одна из главных сложностей в современном ядре. Отказ от OoE — цена за упрощение ядра.
Если можно ускорить обработку одного потока, то можно просто сделать более мощное ядро, а потом его разделить как HT. Возможно сейчас нет возможности улучшить производительность в однопоточном режиме, по-моему такой возможности давно особо нет, так мелкие улучшения но ни каких капитальных революций. Собственно потому и начали в свое время внедрять два ядра и стимулировать софт к многопоточности.

А если ядер больше двух? И еще всякая дерготня через apic бегает? Опрашивать планировщиком, а не схлопнулись ли у нас ядра? А то некоторые процедуры бывают весьма time-critical, их нельзя вешать на "временно отсутствующее" ядро, чьи ФУ отданы другому.
Значит, надо сразу делать матрицы регистров, ИУ, декодеров, предсказателей, ВВ, программно конструировать цепочки ИУ и работать на архитектуре с условным выполнением инструкций. Итого вырисовывается какой-то arm-asic grid, причем сильно смахивающий на видеокарту.
Зато можно будет для множества нетребовательных задач расхлопнуться до decoders/2 логических процессоров, а для жесткой векторной арифметики хоть почти все узлы отдать одному логическому процу, оставив минимум под систему. Заработало ядро — затребовало из пула ресурсы, закончило обработку — отдало все ресурсы обратно в общий пул. Осталось еще beamVM портануть прямо на железо, и вот он — мега-SoC будущего, который захватит мир.
Правда, до того миру надо будет сильно упереться в пределы горизонтального масштабирования, которые пока что все еще удается отодвигать. Ну и схожего эффекта можно достичь и другими, не столь экстравагантными, способами.

Какие несколько %? Самый кардинальные скачки в эффективности процессорных архитектур как раз и происходили только при увеличение кол-ва ФУ в ядре и увеличении пропускной способности декодера x86 в микроинструкции.

1й принципиальный скачок — переход к суперскалярной архитектуре в Pentium после 8086-486х. До этого в ядре было только по одному ФУ каждого типа и декодер способный выдавать по 1 инструкции/такт.
С Pentium декодер расширился до 2инструкций/такт и часть ФУ в удвоенном количестве.

2й скачок P6 с добавлением ФУ и расширением декодера до 3 инструкций/такт. Так же ввода SIMD (тоже больше ФУ в ядре)
Следующий скачок скорости — Core с еще большим количеством ФУ на ядро и декодером на 4 инструкции/такт. Который за счет этого превосходил как NetBurst так и конкутирующие K8 и K10 от AMD у которых декодер и ФУ были разработаны под 3 инструкции/такт.

У АМД ядра бульдозеров (FX серия) получились такими слабыми опять же из-за этого: часть ФУ разделена между 2мя ядрами, а производительность декодера только 2 инструкции/такт. В результате огромное отставание в однопоточной нагрузке от конкурента

AMD ZEN — отказ от узких 2/такт декодеров и разделяемых ФУ, полноценный декодер на 4 инструкции/такт как у iCore (+ до 2 иструкций из кэша уже декодированных). И сразу в один прыжок догнали Intel.
Я правильно понимаю что от этого будет выигрышный только если эти 4 инструкции не зависят друг от друга? Тогда их можно распараллелить на несколько ФУ. Но фактически если сделать всех ФУ х2 и 2 инструкции за такт, то получаем 2 полноценных ядра + систему авто распараллеливания. Если же не все ФУ удвоены, а только самые востребованные то выходит экономия кремния. Если же отдавать эти дополнительные ФУ как виртуальное ядро, то даем возможность параллелить не только автоматически но и разработчикам.

И идея НТ наоборот заключается в том, чтоб взять 4 ядра с их 4 инструкции за такт и доп ФУ и эмулировать одно ядро на 16 инструкций за такт и кучей ФУ?
Если да, то мне кажется что это не сработает, наверное мало где бывает так чтоб по 16 независимых команды шли постоянно. Наверняка есть определенный предел мощности декодера, после которого идут или промахи предсказания ветвлений или просто ожидание результатов постоянное.

Может по этому они и стали делать реальные ядра, да еще и отдавать ресурсы по НТ, что уперлись в этот предел. И дальше нужно уже просить разработчиков нормально параллелить код, а не пробовать делать это автоматом налету.

А что если пробовать это все делать на уровне компилятора, находить такие не связанные инструкции и помечать их особым образом как те, что можно выполнять одновременно. Тогда можно отказаться от сложных декодеров, системы предсказания ветвлений. Правда хз как при этом сохранять контекст каждого микро потока…

Ладно, тема сложная, пускай специалисты лучше думают :)
Не обязательно не связанные. Сейчас все приличные ядра выполняют инструкции вообще не в том порядке в котором они записаны в программе (Внеочередное исполнение)
Поэтому когда попадаются инструкции зависящие по цепочке друг от друга, то все такие зависимые кроме первой «встают на паузу» и идут на исполнение по мере получения результата от предыдущей, а остальные ФУ в это время просто загружаются другими инструкциями — не зависящими друг от друга или для которых предыдущие от которых они зависели уже посчитаны.
Проблемы начинаются только когда таких взаимозависимых инструкций очень много — большая часть кода из таких состоит и из-за этого в пределах кэша инструкций уже не остается независимых, которые можно отправить на ФУ.

Смысл HT — прикинуться дополнительным ядром и взять 2й поток на тоже самое физическое ядро. Как раз чтобы загружать множественные ФУ внутри одного мощного ядра в моменты, когда они простаивают из-за того, что все ближайшие не связанные друг с другом инструкции уже обсчитаны и нужно ждать пока будут готовы данные предыдущих. Или в моменты когда дожидаемся подгрузки данных из памяти и ФУ простаивают по этой причине (например неправильное предсказание перехода — данные из памяти заранее не погрузились и инструкция будет десятки тактов ждать данных из основной памяти).

HT позволят подхватить инструкций из другого потока, которые почти гарантированно не будут зависеть от результатов инструкций в основном потоке. Т.к. либо относятся вообще к другом приложению, либо к другой задаче внутри одного приложения. Или же даже если это много потоков по обработке той же задачи в одном и том же приложении, но тогда программист должен был об распараллеливании сам подумать и как-то его реализовать.

Т.е. HT это источник независимых инструкций, позволяющий снизить простои ФУ.
В результате польза от него не очень большая и сильно варьирует от приложения от нескольких десятков % выигрыша и вплоть до отрицательных значений, когда итоговая скорость наоборот немного снижается. Если код и так хорошо на ФУ раскидывается и их загрузка близка к максимальной, то HT лишь увеличивает «накладные расходы» на работу с 2мя потоками вместо одного.

Идея свалить все на программистов — пусть у них голова об этом болит как расстреливать вычисления, совсем не новая. Примерно то что вы описали есть в архитектуре VLIW
Пробовали уже много раз, но как говорится «не взлетело».

Отказ от наращивания мощности ядра и вместо этого простое их тиражирование, которым занимались оба лидера последние годы — по сути другой подход к тому же. Пусть там программисты думают, как свое ПО на кучу независимых потоков разложить, а мы будем просто копировать одинаковые ядра вместо разработки новых более мощных/эффективных.

Но если используемый алгоритм и обрабатываемые данные позволяют их эффективно раскладывать на неограниченное количество независимых потоков, то с подобной работой намного лучше справятся вообще GPU, которые имеют просто гигантское преимущество на подобных задачах — скорость современных процессоров и близко не стояла.

А от CPU хочется все-таки как можно большей скорости выполнения последовательного кода.
Ясно, подскажите, может знаете как на это реагирует график загрузки ядер в винде? Я замечаю что четные ядра загружены постоянно, а нечетные редко (вот примерно так http://c2n.me/3HSzsXK) Я думал что-это как раз связанно с тем, что нечетные ядра не настоящие, и их загрузить получается не всегда.
Но вот например компиляция проекта или запуск хрома с парой сотен вкладок загружают все ядра по полной. Можно это считать эффективным использованием НТ? Или нужно только делать вкл\выкл и замерять время?

В свое время я запускал одинаковые виртуалки с одинаковой нагрузкой на разном железе. На старых двуядерных системах я мог запустить только две. На 6 ядерном феноме — 6 виртуалок. А на 3770 10 штук. Я всегда считал это доказательством эффективности НТ в бытовых задачах. Я не прав?
Просто если ОС видит, что реально нагруженных потоков работой меньше чем логических ядер, то для максимальной скорости работы правильно и эффективно будет поместить по одному такому потоку на каждое физическое ядро, а виртуальные HT ядра оставить не используемыми или повесить на них какие-нибудь слабо нагруженные потоки.

Это оптимизация по скорости на уровне ОС. 2 потока на 2х разных физических ядрах разумеется будут работать намного быстрее, чем эти же 2 потока попавшие в одно физическое ядро через HT.
Внутреннюю загрузку ФУ внутри ядра ОС не видит, в обоих случаях будет отображаться 100% загрузка, только реальная скорость во 2м случае (2 потока попали в одно физ. ядро) будет намного ниже.

С виртуалками обычно вообще объем памяти критическое ограничение. Больше ядер конечно не помешает, но в плане увеличения скорости их работы, а не самой возможности их использовать.
Но если используемый алгоритм и обрабатываемые данные позволяют их эффективно раскладывать на неограниченное количество независимых потоков, то с подобной работой намного лучше справятся вообще GPU

Во-первых, GPU вроде как весьма проседают на бранчинге (хотя, может, уже и нет).
Во-вторых, писать под них существенно сложнее. Нельзя просто взять и собрать имеющийся код на плюсах, скажем, под GPU, тогда как параллелить грамотно написанный код куда проще.
AMD ZEN — отказ от узких 2/такт декодеров и разделяемых ФУ, полноценный декодер на 4 инструкции/такт как у iCore (+ до 2 иструкций из кэша уже декодированных). И сразу в один прыжок догнали Intel.

Но, к сожалению, не перегнали. Скорее, только достигли уровня Sandy Bridge.
Например, FPU: у AMD был один FPU на 2 ядра, стало два 128-битных FPU на ядро. У Intel же уже с Haswell имеется по два 256-битных FPU на ядро. То есть могут оказаться задачи, в которых Zen в 8 потоков будет работать со скоростью 4-ядерника Intel.

Было 2 128 битных FMAC на модуль (при этом делимых между 2 ядрами) работающих с плавающей запятой, стало 2 256-битных FMAC в каждом ядре.
Все как у самых современных Intel
image

Там только какие-то сложности с реализацией AVX инструкций, из-за чего по 2 AVX 256 битных за такт по какой-то причине не может выполнять.
Было 2 128 битных FMAC на модуль (при этом делимых между 2 ядрами) работающих с плавающей запятой, стало 2 256-битных FMAC в каждом ядре.
Все как у самых современных Intel

Данная диаграмма датируется весной 2015 года и не соответствует действительности. В обзорах последнего месяца указывается, что блоки AVX в Zen будут 128-битные. Возможно, в Zen+ они станут полноценным.

Как-таковых блоков AVX там нет вовсе. AVX это набор инструкций, которые каким-то образом по усмотрению разработчика процессора транслируются на универсальные исполнительные устройства
На новых схемах архитектуры Zen 4 блока по работе с плавающей точкой + 4 блока с целочисленными данными в каждом ядре.

Видимо какие-то ограничения в трансляции, когда 2 AVX-256 инструкции нельзя одновременно исполнить на этих 4 блоках за 1 такт.
А вот до 4х других инструкций для данных с плавающей точкой за такт — можно.
Не дописал. 2 256 бит AVX за такт оно не может, но судя по описаниям например может одну AVX + 2 других инструкции с плавающей запятой (SSE или х87) за один такт.

А целочисленных ФУ 4 штуки 128 битных на каждое ядро (против 2 на ядро в бульдозерах)
То есть могут оказаться задачи, в которых Zen в 8 потоков будет работать со скоростью 4-ядерника Intel.

1. Такой код нужно на ГПУ исполнять.
2. Иначе, скорей всего, производительность упрется в память, а еще и про другие инструкции не стоит забывать. Так что про разницу в 2 раза на реальных задачах для CPU я слабо верю.
  1. У кода на GPU есть недостаток: его ещё нужно написать. Не для каждой задачи это целесообразно делать.
  2. Да, текущие тесты показывают, что разницы нет. Может быть, в определённых синтетических сценариях она и будет — не знаю.

Я думаю, стоит дождаться выхода официальной документации на процессоры, а не гадать.

Тут появилось время и почитал поподробнее об архитектуре. Да, тут правы — FPU блоков вообще 4х128 бит, но не универсальных. 2 сумматора и 2 для умножения. Такой набор способен выполнить за 1 такт:
— до 8 обычных х87 инструкций с плавающей точной для 64 бит данных, в реальности до 6/такт, т.к больше через диспетчер не пролезет
— до 4 отдельных SIMD инструкций над 128 бит данными, но не более 2х одного типа
— 2 комбинированных инструкции умножения+сложения (fused multiply-add = FMA) над 128 бит данными
— до 2 простых AVX/AVX-2 инструкции над 256 бит данными если они разного типа
— 1 одну сложную (fused) AVX-256 инструкцию

В плане исполнительных блоков с плавающей точкой это уровень Ivy Bridge, 3го поколения iCore.
Начиная с Haswell по FPU части iCore помощнее. Но вот 2х кратного преимущества там не получается.
Вообще преимущество будет только на хорошо оптимизированном коде использующим сплошной поток из AVX-256 или FMA3 инструкций(что достижимо в основном в систетике, а не реальных приложениях).
При использовании обычного кода из х87 и SSE x инструкций пользы от большего кол-ва исполнительных блоков Haswell нет — через декодеры и диспетчер нужное количество инструкций просто не пролезет, чтобы их все загрузить работой.

На подобном хорошо оптимизированном коде из чистого AVX-256, которые полностью загружают 2 FMA256 блока ядра Haswell, тот начинает включать «анти буст/анти турбо» — не просто вырубает любой буст по частоте, но начинает сбрасывать частоты ниже базовой и троттлить из-за того что эти блоки в нем жрут слишком много энергии и слишком сильно греются. В некоторых материнских платах даже появилась настройка отдельного множителя — до какой частоты притормаживать если плотный AVX код идет.
Т.е. 2 сложных 256 бит инструкции за такт Haswell тоже выполнять не может как и Zen. Ну формально может, но только на частотах даже ниже базовой.

Преимущество на хорошо оптимизированном специализированном коде все-равно остается (т.к. 2 инструкции/такт на сниженной частоте все-равно лучше чем 1/такт на высокой частоте), но не 2х кратное.
Вообще преимущество будет только на хорошо оптимизированном коде использующим сплошной поток из AVX-256 или FMA3 инструкций(что достижимо в основном в систетике, а не реальных приложениях).

Обычная свёртка в обработке изображений или линейная алгебра — это и есть сплошной поток FMA. Другое дело, когда код написан без использования векторных операций, тогда преимущество Intel в виде большего количества вычислительных блоков действительно теряется.


На подобном хорошо оптимизированном коде из чистого AVX-256, которые полностью загружают 2 FMA256 блока ядра Haswell, тот начинает включать «анти буст/анти турбо» — не просто вырубает любой буст по частоте, но начинает сбрасывать частоты ниже базовой и троттлить из-за того что эти блоки в нем жрут слишком много энергии и слишком сильно греются.

Неужели всё настолько ужасно? Мой Sandy Bridge (32 нм, 4 ядра, по одному AVX256 блоку на сложение и умножение) с довольно сильным разгоном не уходит в тротлинг под максимальной вычислительной нагрузкой. Неужели снижение техпроцесса с 32 нм до 14 нм так и не привело к значительному снижению тепловыделения?

Я не знаю пофиксили ли это в самых последних итерациях iCore (SkyLake и Kaby Lake), которые делаются по 14 нм технологии.

А вот в Haswell и Broadwell где удвоенное количество FPU блоков впервые появилось было довольно плохо. Особенно в Haswell который молча начинал по частотам скакать, хотя вроде еще предельная температура (100 гр) не достигнута и вроде бы охлаждение справляется.
В Broadwell это более явно сделали и дали возможность регулировать — задавать отдельно частоты для работы под AVX и во всех других режимах. Но все-равно вполне обычное дело скачок в +15-20 градусов при задействовании AVX по сравнению с полной нагрузкой всех ядер обычным кодом на той же частоте. Настройку ввели, чтобы можно было выставить гибридный режим — скажем с AVX работаем на 3.5 ГГц, а все остальное время на 4+ ГГц.

Если правильно понимаю там главная проблема не столько общая потребляемая мощность и выделение тепла, как то что они приходятся на очень маленький/компактный вычислительный FPU блок. Тепло не успевает распределятся по кристаллу(теплопроводность же не бесконечная), схемы мониторинга и управления сбрасывают частоты, чтобы не допустить локального перегрева.

И в этом плане новые тех.процессы без изменения архитектуры (если просто отмасштабировать ту же схему на новые производственный нормы) могут даже несколько хуже сделать, т.к. потребление энергии на работу одиночного транзистора снижается меньше чем уменьшается занимаемая им площадь. В результате удельные потребление энергии/нагрев (на 1 мкм2 площади активного выч. блока) наоборот немного увеличиваются.
А вы на Интел гляньте с 2010 года. Ядро все сложнее, ROB раздули, планировщик раздули, а однопоточная производительность очень слабо растет.
Только сильно увеличили многопоточную.
У меня в соседнем окне предельно тупая однопоточная задача на i7-3930K @ 4.2 ГГц считается в более чем два раза медленнее, чем та же задача на неразогнанном i7-6700 @ 3.4 ГГц.

Правда, в ещё одном окне есть ещё одна задача, в которой выигрыш — процентов 25 хорошо если.
Ну так у Intel и число ядер не растет уже лет 7 не растет.
UFO landed and left these words here
На серверах — возможно. А на десктопах i7 заморозились.
UFO landed and left these words here
Правда там нюанс есть, было 8 ядер по 3.1 ггц, стало 18 по 2.3 ггц. Это рост в 1.6 раза.
Сейчас 24 по 2.4, это рост в 2.3 раза.
В начале 2011 было 6 по 3.47 ггц Тогда выходит что за 7 лет прирост 2.77 раза.
Конечно такие подсчеты не учитывают разных архитектурных улучшений, тем не менее «грубая производительность» выросла за 7 лет не так уж и сильно.
На десктопе за это время перешли от 4 по 3.33 к 10 по 3. Это прирост 2.25 раза.
Т.е. примерно одинаково с серверным сегментом.
И это логично, т.к. единственный сдерживающий фактор это охлаждение. 3770 на частоте 4 ггц уже очень сложно охлаждается мега двойным башенным куллером, а у него всего 95вт. Чем охлаждать 140-160 вт в режиме турбо я даже не знаю.
UFO landed and left these words here
А чеще даже не работаешь, а скролишь вебстраничку которой конечно нужно 8 ядер по 3.2
А смьісл? Они ж прежде всего коммерческая компания, их цель — заработать больше денег. Поєтому и вьіпускают в таком порядке для получения максимальной прибьіли, а не с целью абстрактной победьі над конкурентом.
UFO landed and left these words here
> кипятильник
А ничего, что амдшный проц 95 Вт и при этом обходит интеловский на 140 Вт?

> эмулятор андроида работает только на интеле, ибо амэдэ эту виртализацию аппаратно не поддеживает
Ложь и провокация, виртуализация поддерживается и прекрасно работает, самолично пользовался андроидом с виртуализацией на процессоре FX.
Мне кажется они специально взяли перерыв, в то время как линейки Интел показывают почти нулевой прирост производительности в реальных задачах. Сейчас если интел и выпустит что-то на 5-10% быстрее, или даже на 20% быстрее то все равно это не стоит +100% к цене. 8 ядер и 16 потоков на частоте 4 ГГЦ с поддержкой ECC памяти это просто нечем крыть кроме цены, я думаю мне такой системы хватит лет 5-7.
Сейчас у меня 3770К, 4 ядра на 4.1 ГГЦ и без ECC, аргументов купить комп на новой линейке интела нет ни каких.

Еще больше ядер — не нужно (пока), поддержку не существующих списков команд добавить нельзя, запас может быть только по частоте, а он зависит от тех процесса. Пока у них видимо нет сл тех процесса, а ждать его появления уже опасно.
Сейчас у меня 3770К, 4 ядра на 4.1 ГГЦ и без ECC, аргументов купить комп на новой линейке интела нет ни каких.

У меня 2600K @ 4.5 GHz, причём с отключенным HT (4 ядра/4 потока) — в моих задачах включение HT не только не приводит к росту, но даже снижает производительность.

Конечно, мне очень хочется 6900K — он бы дал прирост около ~3 раз для моих задач, но я, скорее всего, сделаю апгрейд на AMD в итоге.
А это какие у вас задачи такие? А то у меня 3930k, и я оценивают потенциальный прирост процентов в 20-30.
Обработка изображений, линейная алгебра. Задачи очень хорошо масштабируются по ядрам.
Поэтому ожидаю двукратный пророст от роста числа ядер + 20-25% прирост производительности на ядро, итого около 2.5 раз.Также появится возможность использования AVX2.

Ещё есть надежда, что SMT (аналог Hyper-Threading от AMD) даст небольшой прирост в производительности. Хотя здесь я настроен скептически: у Ryzen нет лишних блоков обработки FP, поэтому что в 8 потоков, что в 16 скорость вычислений будет, скорее всего, одинакова.
Ух ё, я как-то пропустил, что у 6900k ажно восемь ядер. Тогда это имеет смысл, да.

А так у меня-то тоже линейная алгебра всякая, псевдообратные там считать, Левенберга-Марквардта прогонять, всякое такое. Опыт показывает, что оно всё в основном упирается в память.
UFO landed and left these words here
А смысла в этих 12 ядрах, если у него частота 2.4 ГГц, а мой 3930k стабильно работает на 4.2? Прирост получится несерьёзным.

Вот двухголовую систему из таких процов собрать было бы интересно, но сколько стоят соответствующие матери?
UFO landed and left these words here
Ну, представляется разумным оценивать суммарную производительность как произведение частоты ядра на количество ядер. С небольшим предпочтением пусть чуть менее суммарно производительных процессоров, но с более быстрыми ядрами (не все нагрузки параллелятся).
двухголовые 1366 китайцы сливают дешевле 200 включая доставку.
А где посмотреть примеры того, что они продают? А то я в этом ничего не понимаю, только совсем базовые вещи слышал.
UFO landed and left these words here
UFO landed and left these words here
Сравнимо с ценой двух процессоров.
И, кроме того, я как-то понял, что никогда не задавался вопросом, как именно работают эти четыре канала?

Например, если у меня в памяти лежит кусок данных относительно подряд, с которым работает одно-единственное ядро, по идее, скорость обмена с памятью выше «одноканальной» не поднимется?
Многоканальный доступ означает, что процессор может одновременно работать с несколькими модулями памяти.

у меня в памяти лежит кусок данных относительно подряд

При многоканальном доступе данные размазаны по модулям (interleaving), так что при последовательном доступе будут задействованы все модули, и многоканальный доступ будет эффективен.
В очевидно ограниченной по памяти задаче (и vtune говорит, что у меня всё упирается в шину памяти) я получаю на своём DDR3-1600 примерно 10 с небольшим гигабайт/с, что близко к теоретическому пределу для одноканального режима. Как можно проверить, собственно, многоканальный доступ у меня или нет?

Да, ~10 Gb/s — это соответствует одноканальному режиму работы.
Окончательно в этом можно убедиться, посмотрев на данные, выдаваемые CPU-Z.

Осталось вкорячить CPU-Z на эти мои линуксы :)

dmidecode про interleaved data depth говорит unknown.
dmidecode про interleaved data depth говорит unknown.

Странно. Впрочем, пока я его не обновил — мне он тоже ничего не выдавал.

Ну, у меня вроде тоже последняя из доступных в генте версий. Страннота.
UFO landed and left these words here
Восемь одинаковых плашек во всех восьми слотах матери.
Серверные 12(на ядрах примерно как у Phemom II) и 16(примерно как у FX) ядерные камни у АМД уже очень давно были. И тоже на ебэй недорого за б/у встречаются.

Еще года 3-4 назад знакомые 4х сосетную машину на б.у. серверных камнях от AMD собирали с 48 рабочими ядрами в итоге.
Да, тоже интересно как можно ожидать 3х кратный прирост, если основное преимущество это 8 ядер против 4, а масштабирование на количество ядер в самом лучшем случае линейное.

По частоте скорее всего это будет шаг назад (для 6900K 4.5 ГГц это почти нереально достичь без экстрима). Ну а обновленная архитектура даст только 10-30% прибавки в зависимости от задачи.
к слову, разйзен умеет в ecc.

Все эти новости о поддержке ECC начались с того, что в спецификациях материнской платы нашли "совместимость" с модулем памяти ECC, про реальную реализацию ECC в процессоре данных нет. В обсуждении https://community.amd.com/thread/210870 заметили спецификации сходных плат, в которых честно указано, что модуль с 9 чипами памяти поставить можно (ECC и неECC DIMMы pin-совместимы), память заработает, но суммы ECC никто ни считать, ни исправлять не будет — http://www.gigabyte.us/Motherboard/GA-AX370-GAMING-5-rev-10#sp (AMD X370)


"Support for ECC Un-buffered DIMM 1Rx8/2Rx8 memory modules (operate in non-ECC mode)"


Работающий ECC увеличивает задержки примерно на такт (для каждого запроса требуется подсчитать код и, в случае чтения, может потребоваться инверсия одного из битов при получении признака ошибки), хотя и слабо влияет на реальную производительность.
Ранее корпорация AMD включала обычный SECDED ECC в некоторые десктопные продукты, но оставляла для серверных платформ более продвинутые варианты кодов, например:
Athlon 64, 2004 "2.4.2 Memory Controller… ECC checking with single-bit correction and double-bit detection • Chip Kill ECC allows single symbol correction and double symbol detection (Server/Workstation products only)";
16h G-Series SOC 2012, FT3 "Integrated Memory Controller… FT3 package… Supports ECC";
16h AMD Sempron, 2014 "FS1b package… Supports ECC"
16h A-Series Mobile "FT3 package… Supports ECC"
10h AMD Phenom II, 2010 "Integrated Memory Controller .."


В то же время ECC не включался в ряд встраиваемых APU, например 15h… Embedded R-Series, 2012 "Integrated Memory Controller", 15h A-Series APU 2012 "Integrated Memory Controller" — без ECC.


Точная информация будет через несколько недель с публикацией спецификаций на процессоры и чипсеты (поиск site:support.amd.com "family 17h"). Сейчас есть только предположения, хотя определенный код для F17 уже добавлен в ядро Linux: http://lxr.free-electrons.com/source/drivers/edac/amd64_edac.c?v=4.10#L2192, есть некоторая информация в истории этого файла: https://github.com/torvalds/linux/commits/master/drivers/edac/amd64_edac.c, например отказ включать ECC если он выключен (или не поддерживается) в BIOS "Forcing ECC on is not recommended on newer systems. Please enable ECC in BIOS".

Одно из изданий (STH) спросило на AMD Tech Day in San Francisco представителей AMD, ожидается ли анонс односокетных Zen/Ryzen с поддержкой ECC и получило ответ, что AMD не анонсирует таких продуктов при запуске Ryzen.


https://www.reddit.com/r/Amd/comments/5vpp40/no_ecc_support_in_any_of_the_currently_announced/https://www.servethehome.com/amd-ryzen-7-parts-available-for-pre-order-now/ "AMD RYZEN 7 PARTS AVAILABLE FOR PRE-ORDER NOW!" — PATRICK KENNEDY FEBRUARY 22, 2017


We did ask about a potential single socket Ryzen/ Zen part with ECC memory support and were told that AMD was not announcing such a product at this time alongside the Ryzen/ Zen launch.
Спасибо за это сообщение, хотя признаюсь честно, оно вызвали у меня негативные эмоции. :( А так хотелось ECC за вменяемые деньги… Буду надеяться АМД выпустит серверные версии за вменяемые деньги.

http://www.anandtech.com/print/11170/the-amd-zen-and-ryzen-7-review-a-deep-dive-on-1800x-1700x-and-1700 The AMD Zen and Ryzen 7 Review: A Deep Dive on 1800X, 1700X and 1700 — March 2, 2017 9:00 AM EST


At this time AMD is not announcing any Pro parts, although it was confirmed to be that there are plans to continue the Pro line of CPUs with Ryzen to be launched at a later time.… A side note on ECC: given the design of Naples and the fact that it should be supporting ECC, this means that the base memory controller in the silicon should be able to support ECC. We know that it is disabled for the consumer parts, but nothing has been said regarding the Pro parts.… For our testing… 1800X, 1700X and 1700… At present, ECC is not supported.

В мегатреде AMA (3 марта 2017)
https://www.reddit.com/r/Amd/comments/5x4hxu/we_are_amd_creators_of_athlon_radeon_and_other/
ответили на вопрос о ECC в Ryzen (поддержка есть, включается в BIOS если было реализовано поставщиком материнской платы, работоспособность ECC не гарантируется — не валидировалась в продуктах для "геймеров"):
https://www.reddit.com/r/Amd/comments/5x4hxu/we_are_amd_creators_of_athlon_radeon_and_other/def5ayl/


whatever0601: Could you speak to ECC being disabled in these CPUs?
AMD_Robert Technical Marketing[S]: ECC is not disabled. It works, but not validated for our consumer client platform.
nagvx: What does "validated" mean in this context? What sort of stumbling-block does that represent to those who want ECC? Will it still be possible to build ECC-enabled servers with consumer-grade (and consumer-price-range) hardware on the Ryzen platform? There are a significant portion of users who want ECC for their NAS/Homelab setups.
AMD_james Product Manager: Validated means run it through server/workstation grade testing. For the first Ryzen processors, focused on the prosumer / gaming market, this feature is enabled and working but not validated by AMD. You should not have issues creating a whitebox homelab or NAS with ECC memory enabled.
ShermanLiu: So the Ryzen has full ECC support, if I install a ECC memory, it would work in ECC mode, not non-ECC mode?
AMD_james Product Manager: yes, if you enable ECC support in the BIOS so check with the MB feature list before you buy.
tolga9009: Thank you for the answer! So, the AM4 platform / socket theoretically has everything to fully support ECC and it's only up to mainboard manufacturers. Is that correct?
AMD_Robert Technical Marketing[S]: Bingo.…
AMD_james Product Manager: RDIMM will likely not be supported. UDIMM ECC will work.…
TheRealHellBENder: I asked Asrock per mail and they answered that their B350 boards would operate in non-ECC mode
AMD_james Product Manager: Thanks for letting me know. I'll check with the MB makers and see if we can get consistent.
ParticleCannon: Speaking of prosumer features, is AMD-VI/IOMMU in?
AMD_james Product Manager: yes
tolga9009: I've seen IOMMU entries in ASRock and ASUS BIOSes. It's disabled by default, but you can enable it. So, it's in there. But I haven't seen any hands-on tests so far.

https://www.reddit.com/r/Amd/comments/5x4hxu/we_are_amd_creators_of_athlon_radeon_and_other/def58sv/


Minkipunk: Hello AMD! This question is a very short one. Do Ryzen CPUs support ECC Memory, yes or no? ;)
AMD_LisaSu CEO of AMD: Yes they do!
drchoi212x: do they support ECC-REG memory as well?
AMD_james Product Manager: ECC-REG — No, registered or buffered memory is not supported.

Этот патч также несколько интересен своей историей. Принят патч с сообщением: http://git.kernel.org/cgit/linux/kernel/git/torvalds/linux.git/commit/?id=044e7a414be9ba20826e5fd482214686193fe7b6


EDAC, amd64: Don't force-enable ECC checking on newer systems
It's not recommended for the OS to try and force-enable ECC checking.
This is considered a firmware task since it includes memory training,
etc, so don't change ECC settings on Fam17h or newer systems and inform
the user.
-       amd64_warn("Forcing ECC on!\n");
+       if (boot_cpu_data.x86 >= 0x17) {
+           amd64_warn("Forcing ECC on is not recommended on newer systems. Please enable ECC in BIOS.");
+           goto err_enable;
+       } else
+           amd64_warn("Forcing ECC on!\n");

В предыдущей версии патча https://www.spinics.net/lists/linux-edac/msg06912.html "[PATCH 07/17] EDAC/amd64: Don't try to force ECC settings on newer systems" просто не включали ECC даже по ecc_enable_override=1 и не выдавали каких-либо сообщений:


+   /* Don't try to enable DRAM ECC from Linux on newer systems. */
+   if (boot_cpu_data.x86 >= 0x17)
+       return;

На что было указано: https://www.spinics.net/lists/linux-edac/msg06931.html "Add… along with a pr_info()
explaining to the user why we're not going to force-enable ECC."


Вся серия патчей AMD Fam17h EDAC — https://www.spinics.net/lists/linux-edac/msg06905.html
Поиск патчей в ядре по строке "17h" http://git.kernel.org/cgit/linux/kernel/git/torvalds/linux.git/log/?qt=grep&q=17h (в частности, год назад там заметили раннее кодовое обозначение "AMD Zeppelin (Family 17h, Model 00h)")

UFO landed and left these words here
В реальной задаче по кодированию видео в тесте Handbrake процессор Ryzen 7 1700 справился с задачей за 61,8 с, а Core i7 7700K — за 71,8 с. И это несмотря на то, что скорость кодирования видео с аппаратной поддержкой всегда считалась сильной стороной процессоров Intel.

С вероятностью 95% кодирование осуществлялось программно, а не аппаратно.
UFO landed and left these words here
Так ведь процессора тестировали. Помнится по обзорам у «аппаратных» решений качество хуже, не на много, но хуже.
да, только сравнивали топовые процессоры, которые ни у амд, ни у интел не имеют встройки.
Разумеется программно. Было бы очень затруднительно тестировать ее аппаратно с учетом того, что у всех сравниваемых процессоров (кроме i7-7700K) встроенных блоков для работы с графикой нет вообще.

Laney1
UFO landed and left these words here
Я думаю, что основной массе пользователей это не критично. С другой стороны осталось всего ничего и ютуб будет завалет реальными тестами/обзорами. Ну и цена. Вот то что может сыграть злую шутку с супер навороченными и технологичными процами интела
Реальные тесты уже не за горами. А по поводу AVX2, насколько я понял, спаривание блоков для их выполнения, это всё равно быстрее, чем компиляция кода просто под AVX, так что спасибо АМД за то, что поддерживает AVX2 хотя бы так, чем никак.
А еще 4 канала памяти и больше линий PCI. И получаем проц+мать по космической цене.
Но многим ли это нужно?
А какая разница, как реализован AVX? Для программиста важны характеристики latency и throughput. Но факт в том, что у Ryzen вычислительных блоков тупо меньше, чем у Skylake. Поэтому Skylake теоретически может за единицу времени выполнить больше команд AVX.

А вот что действительно плохо, так это 2-канальная память даже у 8-ядерника. У меня на Sandy Bridge часто бывает, что уже пары потоков достаточно, чтобы упереться в скорость памяти. Пример задачи: посчитать норму длинного вектора: 1 чтение, 1 умножение, 1 сложение на 8 элементов (32 байта). При скорости памяти 20 гбайт/сек получается всего 625 миллионов итераций в секунду на весь процессор, а между SSE и AVX-версиями алгоритма разницы нет никакой.

Приходится оптимизировать алгоритмы, добиваясь группировки данных в кэше и даже увеличивая вычисления за счёт уменьшения количества доступа к памяти. Так что я не удивлён тем, что инструкции AVX у AMD менее производительны, чем у Skylake: при двухканальной памяти при большом количестве ядер высокая производительность AVX просто не нужна. А AVX512 и подавно не нужен.
А скорость памяти вы не учитываете?
UFO landed and left these words here
Очевидно же: 5.1449 => 5.145 => 5.15 => 5.2 ;) Вот 6, похоже, ника не получить…
То, что вы сделали похоже на математический «развод» =), но так делать нельзя или точнее — так делать неверно. Округлять округлённое число — это увеличивать погрешность. Определитесь вначале до какого разряда хотите округлить, а потом округляйте, используя правила из школьного учебника. То есть решили округлить до десятых — отбрасываем цифры с сотых, учитывая что сотый разряд является 4, то округление происходит без усиления, то получаем 5,1 либо если до второго знака, то 5,14. Так будет правильно.
По-моему очевидно, что у товарища выше это был сарказм. Там даже скобочка есть :-)
Там не просто скобочка, там еще и точка с запятой!
Вот 6, похоже, ника не получить…

Ну это смотря как округлять… опытный маркетолог и так может ;)
5.1449.ceil
res0: Double = 6.0
зато можно сразу округлить до 10Ггц :)
Я тоже ждал, когда-же анонсируют.
На русских оверклоках его ласково именуют «Рыжень» или «Рязань» :D

Я не очень люблю AMD еще с тех времен, когда были вечные проблемы с дровами и т.д., однако десктоп на AMDx2 у меня был — ничего плохого сказать не могу.

Однозначно было-бы отлично, если бы на рынок вернулась конкуренция, ибо Intel последнее время совсем обнаглел :)

Единственное, чего я опасаюсь — как бы не было того, что господа из AMD сравнивали мощность процов с текущей линейкой Intel, а ведь следующая уже вот-вот на подходе. И она может переплюнуть Рязань запросто — запас очень небольшой.

Но на самом деле тесты — это синтетика, она с реальностью далеко не всегда пересекается, поглядим, что геймеры напишут, а дальше уже будет понятно, что брать.
думаю запас по цене достаточно основательный.
да, это реально конкурентное преимущество, согласен
Это первое, а второе — никаких оснований ожидать чего-либо большего стандартных 5-10% от следующей линейки Интела нет. То есть даже если и переплюнет, то очень ненамного.
Если же говорить о реальном прогрессе — 6-ядерники в массовом сегменте — то это не раньше 18 года. И все равно у AMD уже 8-ядерники там же.
Замечательная новость. Это должно вызвать новый виток конкуренции, а значит — снижение цен, а значит — рост продаж, и этот рост всколыхнёт застой на рынке ПК.

Меня не покидает стойкое ощущение какого-то подвоха. Ведь если все так прекрасно, как описывают сами АМД, то зачем продлевать обзорщикам NDA до второго марта (старт продаж)?

Чтобы побольше шума создать.

Т.е. у компании АМД задача создать побольше шума, а не продать побольше процессоров? Интересно.

После конференции они уже дали обзорщикам достаточно рассказать и показать чтобы большинство людей могли решить для себя надо оно им или нет. Единственное ограничение было в плане доступного софта, а так они дали обзорщикам делать с демо системами все что они хотят в пределах разумного.

Так они им и процессоры для тестов раздали наверняка, но только NDA зачем-то продлили на два дня. Если с процессорами все так хорошо, то зачем скрывать это? Наоборот же надо рассказать и показать как все круто. Или не все так круто, и подвох где-то все же есть?

Больше и дольше обсуждение и кипения повидла — возможность обхватить бОльшую аудиторию. Не все каждый день читают хай-тэк новости. Некоторые раз в месяц одним глазом.
Если тесты честные, то как минимум монополии Интел придет конец и они перестанут ставить космические цены на процессоры серии extreme. Что есть хорошо при любом раскладе.
UFO landed and left these words here
UFO landed and left these words here
Она не будет стоит 1.7к, в случае если АМДшные процессоры будут показывать приблизительную производительность за гораздо меньшие деньги.
Будет оно так или нет, поживем увидем.

Хотелось бы еще чтобы nvidia-у так же стали подпирать.
Конкуренция пойдет только на пользу покупателям.
На nvidia вроде грех жаловаться — в отличие от интел, производительность растет исправно.
Ну у nVidia (как и у AMD Radeon) это сделать проще простого. Даже если не улучшать архитектуру, то с переходом на новые техпроцессы просто наращивается число ядер в два раза и все дела. Помнится когда красные выпустили одночиповый HD5870 на 40 нм он работал на уровне двухчиповой GTX 295 поколения 55 нм. Ну и так далее…
А цпушникам надо придумывать способы увеличения производительности при том же числе ядер.
А по поводу реакции Intel: по-моему то, что они добавили Hyper-Threading в пентиумы на каби лэйк уже кое о чём говорит.
Это если не смотреть в сторону титанов. Там соотношение цена-производительность выходит за разумные рамки.
История получается прям как с extreme серией.

Когда +20% производительности дает +80% к цене. В такой ситуации они просто стригут деньги с людей для кого фактор денег отсутствует. Потом через пол года выпускают промежуточный вариант аля 980Ti, который убивает напрочь весь смысл в покупке Titan-а.
Само по себе наличие дешевых и хорошо работающих процессоров АМД(покрывающие 85% всех нужд на оценку Хорошо) уже наносит «урон» интел. (но это в стране единорогов, где нет такого понятия как кортелей и подобных этому понятий)
И все-таки держим в уме, что ядра у AMD гибридные, а потому в других тестах что-то может пойти не так.
Какие гибриды? Ryzen это чистые CPU без графики или каких-то других специализированных модулей.
Шикарно. Такое ощущение, что возвращаются времена Athlon, Athlon XP, Athlon 64 — красные снова на коне.
Возможно, впервые за много лет я куплю их процессор. Тем более, я люблю холодные процессоры, а у них даже на лютом топе TDP 65 Вт, что же будет в среднем сегменте?
Для меня просто и тот, что с 65 Вт, уже «лютый топ».
На скрине вьіше цпу-з под разгоном до несчастньіх 5 ГГц кор вольтаж 1,853, сомневаюсь в его «холодности».
В процах с «X» на конце есть тезнология авторазгона. Она гонит проц пока позволяет охлаждение
как вы точку над «ы» поставили? и зачем? чтобы читатели начали яростно скрести экраны и в итоге повысили оборот производителей и продавцов мониторов?

Мягкий знак и латинская i. Возможно, у человека просто нет "ы" в раскладке.

Спасибо, оказывается, все просто. Да, дурака свалял, надо было поводить курсором по экрану с зажатой ЛКМ, тогда бы сразу стало ясно.
Тогда стоит посоветовать Googlist'у завести себе букву «ы» тем или иным образом, а то так много мониторов могут несколько преждевременно исчерпать ресурс.
U+0456 — Белорусская либо Украинская. Но, поскольку в Белорусской раскладке клавы есть буква «ы», скорее Украинская.
UFO landed and left these words here
Скопируйте «глючный» текст выше, вставьте его куда-нибудь и пробуйте удалять Backspace'ом =)
Сразу вспомнились времена ZX Spectrum когда подобная фигня(только позабористей) использовалась как «защита» от копирования/взлома, прятать код на бейсике.
‮ьтатичоп отэ орп онсеретни ыб олыБ‭
(кстати, не пытайтесь копировать, а потом вставлять эту строчку)
Ну вот типа того, что у вас в примере выше. С разных помощью спец. символов (включая управляющие) забитых в текст программы при выводе ее на экран вместо кода отображалась какая-нибудь надпись или рисунок из символьной псевдографики.

Типа программа такая-то (с) Вася Пупкин.
Не влезать объет!

От загрузки в нормальный внешний редактор это не спасет, но от просмотра штатными встроенными в ПЗУ средствами спрятать можно было.
Для упрощения интерпретации в Спектруме текст программы на Бейсике записывался в файлах и в ОЗУ в виде байткода. Байткод вместо привычного исходного кода содержал сложный набор данных — номер строки, длину, ключевые слова (исполняемые команды), пятибайтовые числа, печатные символы, управляющие символы, разделители и т.д.
Для отображения текста программы на экране выполнялась команда LIST, которая распарсивала байткод.Также распарсивание происходило при вызове строки программы в область редактирования.
Защита заключалась в обфускации байткода так, чтобы при отображении и редактировании стандартными средствами происходило искажение исходного кода, вплоть до его полной нечитаемости или невозможности отредактировать.Обычно такой текст выглядел как бессмысленный набор команд. Иногда основная часть текста не отображалась вообще, потому что затиралась вызовом удаления, при этом выдавался текст из комментариев или набор печатных псевдографических символов.
Способов манипуляций с байт-кодом Бейсика было множество, вот тут есть очень краткое описание нескольких:
https://geektimes.ru/post/103127/
Если интересно, можно почитать вот эти книги:
ZX-Spectrum изнутри. Защита и взлом программ
Как работать с защищёнными программами (тайники спектрума)
Тайники ZX Spectrum и вечная жизнь в 600 играх
Тайники ZX Spectrum и как установить вечную жизнь

Спасибо, теперь стало понятно. Про байт-код помню — застал такое время, но тогда даже и не думал, с ним можно проделывать такие хаки.

UFO landed and left these words here
Заметил точку в букве «ьі» и подумал «опять чем-то запачкал экран».
Сорри за оффтоп.
Заголовок спойлера
Интересно, а что Вы подумаете, увидев букву Ї ї?

Давайте усложним — вот буква Ґ ґ.

Вам ещё мало? — тогда представляю Вам: Є є!

Не согласны с поворотом?, Ну тогда встречайте азбуку Кирилла и Мефодия, а с ними ещё + 20 букв:

image

Да, но в (современном) русском языке подобных букв нет.

Они есть в современном украинском. Скорее всего автору коментария было неудобно переключать раскладку, вот он так и выкрутился.
За это говорим спасибо Джиму Келлеру(снова) и его команде, жаль его не было на презентации.
Интел тоже сделала один интересный ход — на всех новых пентиумах включен НТ, нижний сегмент теперь полностью за ними, если АМД быстро не выкатит что-то сравнимое.
Спорно. Заглянул на сайт DNS — нашел там только Pentium G4600 с конфигурацией 2c/4t цена порядка 5000 рублей (в моем регионе).

Идем и смотрим что за эти деньги предлагает AMD уже сейчас: A8-7600 (4c/4t + video), FX-6100 (6c/6t без видео), FX-4350 (4c/4t без видео). Конечно в данном случае ядро AMD < ядро Intel т.к. речь идет об архитектуре Steamroller, но говорить что «нижний сегмент полностью за Intel» я бы не стал даже сейчас. А в перспективе выйдут APU на основе ZEN (я так подозреваю в конфигурациях 4/8, 4/4 и, возможно, 2/4), что позволит ответить Intel и в этом сегменте.
если АМД быстро не выкатит что-то сравнимое


АМД пока еще не показали ryzen 5 и ryzen 3, так что все еще впереди.
Вот кстати интересно, будут ли 5 и 3 существенно отличаться от нынешнего топа, или это будет просто топ с бракованными и потому отключёнными ядрами и кэшем? Насколько я слышал, Интел из бракованных i7 делает весь спектр от i5 до пентиумов.
Западные специалисты, знакомые с производством, говорят, что доля «отбраковки» <10%, остальное — кристаллы изначально созданные как i5\i3 и т.д.
сейчас не проблема получить изображение кристалла, если бы все i3 были урезанными i7 — это было бы давно уже обнаружено.
ZEN состоит из модулей по 4 ядра (разделяемые ресурсы модуля — только L3 кэш, в отличие от Бульдозеров). То есть R7 — 2 модуля, R5 — те же 2 модуля, по одному ядру в каждом отключено, R3 — 1 модуль. То есть R7 и R5 — скорее всего один и тот же кристалл (в т.ч. отбраковка), R3 — отдельный кристалл.
Т.е. велика вероятность что в R5 из 2-х отключенных ядер реально бракованным будет только одно и будет шанс включить доп ядро?
Не думаю. По тем статьям, которые я читал — количество ядер в модулях должно быть обязательно равным. То есть возможна конфигурация 3+3, но невозможны конфигурации 4+2 и 4+3
Не так. Разделяемых ресурсов вообще нет между модулями, на каждый модуль по 8 мб л3 кеша. Новые восьмиядерники это склейки из двух 4хядерных модулей. Да даже на картинку с кристаллом гляньте…
Я так и написал — разделяемые ресурсы (между ядрами) модуля — L3 кэш. То есть у ядер одного модуля все свое, кроме L3 кэша, который общий для всех ядер модуля. Разделяемых между модулями ресурсов нет, модули полностью независимы.

Максимально, насколько я понимаю, будет 4 модуля в кристалле. Серверные процессоры (Naples) по имеющейся на данный момент информации будут представлять из себя 2 шестнадцатиядерных кристалла.
Пардон, подумал что вы про разделяемые ресурсы именно процессора.
Крайне любопытно.
Если процессор действительно хорош — то как он получился?
На R&D нужны средства и хорошие сотрудники. А из АМД все разбегались и они набирали кого попало (информация от наших изнутри, но уже устаревшая). Видимо что-то поменялось, интересно что?
По наблюдениям стагнация уже давно. К тому же десктопы нужны мало кому, домой народ берет ноуты экономя место, на работу — моноблоки.
Единственно мы покупаем десктопы — но мы лаборатория и нам надо считать круглосуточно. Дома у меня ноут подключенный к большому монитору+клава+мышка. На i5 вполне можно что-то считать, но предпочитаю по тимвьюверу зайти на рабочий комп. Т.е. идея тонких клиентов проникла сама собой.
В общем искренне желаю успеха красным.
К тому же десктопы нужны мало кому,


единственная возможность купить цена/производительность/минимизация стоимости ремонта — это десктоп.

Моноблоки и ноуты это дикие цены по сравнению с железом десктопа.
Ноут дает свободу. Я, например, никогда не сижу на одном месте дольше 1-2 недель. Десктоп с собой не возьмешь даже на дачу. Поэтому уже лет 7-8 пользуюсь исключительно ноутбуками.

Надеюсь, AMD и для ноутов выпустит что-то реально конкурирующее с Intel. А то такое ощущение, что они серьезных процессоров для ноутбуков не делали никогда. А еще очень печальные воспоминания о видеокарте Radeon в прошлом ноутбуке (грелась адски, ноутбук на колени не положить было).
иногда вопроса выбора не стоит — а стоит вопрос будет комп или нет. И тогда и десктоп постаскать приходится если приспичит.
У меня ноутбук был MSI S271, на AMD, на первом 64 разрядном двухядерном процессоре, который был использован в ноутбуках, так что не стоит считать, что красные всегда были лузерами.
Ноуту уже лет 8, семёрка, на случай необходимости винды, спокойно себе на этом ноуте работает.
Но да, греется, писец как.
Для ноутов у них текущая серия интересная, APU, особенно А10. Деньги за «камень» открвоенно смешные, в камне — в добавок ко всему — видло, звуковуха, и вроде сетёвка (ну кроме распайки разъёмов, конечно).
Серия и задумывалась под невысокое потребление и ТДП, и миниатюризацию, ноуты, моноблоки, микропк, SoC итд
На ноуте с предпоследним топом А10 — споконо шпилил себе в Баттылфылд 3\4 в т.ч. в мультиплеер, не имея внешней видяхи.
Для «дома\работы» хватит уж тем более.
Меня интересует совокупность параметров. Например, для меня еще важно разрешение экрана и длительность автономной работы. Например, этот комментарий пишу сидя в аэропорту. Между рейсами 13 часов, розеток в зале ожидания почти нет. Несколько розеток для зарядки телефонов, и все уже заняты. В общем, считаю, что ноутбук должен работать без зарядки хотя бы 6-7 часов.

Когда покупал свой нынешний ноут пару лет назад, ноуты на AMD сливали по всем параметрам. У всех ноутов на процессорах AMD были никакие экраны (с разрешением типа 1366x768) и никакое время автономной работы. И вообще, было похоже, что это ноуты сляпанные кое-как, для самых непридирчивых покупателей, типа «ребенку для учебы». Сбалансированной конфигурации с хорошим экраном, временем работы, расширяемостью (чтобы установить более 4 Гб RAM) просто не было.

Я часто решаю проблему розеток в аэропортах тройником и выдергиванием вендинговых автоматов из розетки.

«А так разве можно?!» — все, на одного с «тройником» теперь будет больше.

Вроде культурное решение) и вреда никому. Банкоматы дергать из питания не стоит. Могут злые люди прийти и палками побить.

ну тут стоит учитывать, что мануфактуреры (ох и слово) железа енд-юзерского — и разработчики их составляющих — слегка разная штука. Не все серии всего железа удачно «обыгрываются» производителем, ориентирующимся на рынок потребительский.

По поводу расширяемости — я лично пердпочитаю ПроБук серию НР, ДЕЛЛЫй ентерпрайзных моделей, и верхний сегмент Лениво.
С остальным так или иначе имел серьезные проблемы с обслуживанием и расширяемостью.

1080р довольно давно идущий в ногу стандарт, хотя именно ноуты я предпочитаю небольшие, а с моим зрением вглядываться в 1080р на 12\14", даже при масштабирования текста — не айс, но это детали личные уже.
По поводу расширяемости — я лично пердпочитаю ПроБук серию НР, ДЕЛЛЫй ентерпрайзных моделей, и верхний сегмент Лениво.

Обоснуйте, что понимаете под обслуживаемостью и расширяемостью. Конкретно в HP и Lenovo меня дико раздражает BIOS Whitelist — не могу ни проапгрейдить Wi-Fi карточку, ни поставить Mini PCI-E SSD. В отличие от десктопов, идеальных ноутбуков нет — приходится либо мириться с недостатками, либо сильно переплачивать.

ну manufacturer ACL-листы еще никто не отменял, увы. Никто в Лениво не хочет, чтоб вы купили ссд у Самсуя и вайфлю от ЛГ :)

Обслуживаемость и расширяемость в моём понимании — легко открыть, достать до нужного компонента не снимая материнку, легко заменить комплектующую типа кулера\клавиатуры\тачпада\памяти итд.
ну manufacturer ACL-листы еще никто не отменял, увы. Никто в Лениво не хочет, чтоб вы купили ссд у Самсуя и вайфлю от ЛГ :)

Даже ещё хуже: я не могу в старый ноут HP воткнуть карточку от более нового ноутбука HP. Никто не хочет, чтобы вы сделали небольшой апгрейд вместо покупки нового ноутбука.


Обслуживаемость и расширяемость в моём понимании — легко открыть, достать до нужного компонента не снимая материнку, легко заменить комплектующую типа кулера\клавиатуры\тачпада\памяти итд.

Я бы тогда назвал надёжностью и ремонтопригодностью.
А расширяемостью в современных ноутбуках, увы, не пахнет: со времем становится только хуже.

ключевое слово — «никто», угу. Не уверен, куда это заведёт.
HP уж точно в этом не образец.
1) Для прочистки радиатора — надо всю железяку разбирать, а тема плохих систем охлаждения — это любимая болячка HP.
2) Смена диска еще туда-сюда, а вот оперативка в нескольких моделях, попадавшихся мне располагалась по обе стороны материнки — опять разбор всей машинки.

Lenovo соглашусь, Dell похуже, но тоже хорошо. HP — ужос.
Обслуживаю несколько организаций — у них удаленка, работа с документами и интернет. Амд А4 с частотой повыше, 4гб памяти, ssd 120гб, нормальный блок питания и любой корпус — выходит в 13 тыс. + винда, если кому нужна еще 7 тыс. Ноуты за 20 тыс явно плачевные по производительности. Мониторы как правило не меняются, живут 2-3 смены системника.

про то и речь. SSD, блок питания, корпус — при апгрейде не требуют замены.Дешевые ноуты просто издевательство.

Для офисных работников апгрейд можно свести к наращиванию ОЗУ и замене процессора на более быстрый, тогда вообще все остается, а цена апгрейда меньше 100 баксов на место. У многих кому 8-9 лет назад собирал компы на АМ2+ они все еще трудятся после апгрейда, даже в современные игры можно сносно играть. А офисные задачи так подавно.

Собственно потому рынок десктопов и падает, т.к. они сильно медленно ломаются, в итоге даже те кто делает апгрейд, сбрасывают старье на вторичный рынок, который отнимает продажи у современного лоу-энда.

Мне иногда кажется что мы(человечество) в один момент произведем столько компов и комплектующих, что просто отпадет необходимость в производстве новых, и пока избыток будет потребляться забудем как это делать, а гиганты обанкротятся.
К тому же десктопы нужны мало кому,

гейминг и еше раз гейминг
Ну, гейм-ноуты тоже есть. Да, дорого, но есть, и видимо спрос тоже имеет место, иначе бы не штамповали их как бешеные.
Их и не штампуют как бешенные) Сравните количество предложени геймерских ноутов и всех сотальных.
Потом просмотрите их спецификации и отсейте «геймерские» с мобильным видео и прочими несуразицами.
Ну и главная пробелма геймерского ноута в батарейке)) а на привязи зарядки он теряет главный козырь — мобильность)
Ну сравните количество год назад и сейчас, после выхода мобильных «Паскалей». И да, для такого ноута автономность — не приоритет. А при желании можно найти даже машинку с 7700K (да, десктопным, да с заменой).
Да, новые зеленые карты сделали возможным поставить нормальную карту в ноут, но всеже но. Если я беру игровой ноут без цели носить его с собой, то зачем мне платить за дисплей в ноуте, если я могу взять нормальный монитор? Зачем мне платить за клаву и тачпад, если я всеравно буду брать полноразмерную клаву и мышу с кучей кнопок и макросами? Геймеры отнюдь не глупы и считать умеют.

зы. Если такие ноуты делают, значит комуто это надо, но всеже это скорей из разряда выпендрежа, а не реальной пользы
Носить игровой ноут с собой ежедневно — зачем? На работе в обед поиграть? Гейм-ноут это такой себе полустационарный аппарат, удобный для частых переездов, командировок, жизни «на два дома» и т.п. Батарейка-то там не главное. Я вот не представляю себе места, где можно играть и при этом нет розетки. Туповремяубивалку лучше на телефоне запустить, а для серьёзных игр нужна спокойная обстановка, много времени и стол для мышки.
а для серьёзных игр нужна спокойная обстановка, много времени и стол для мышки.

Миллионы консольщиков по всему миру пустили слезу.
Холивар
Так серьёзные же игры.
Игроноуты — это для тех, кто живет в маленьком жилье и|или всегда в коммандировках и у кого регулярно есть прилично свободного времени. Т.е. имеем:
1) Студенты
2) Военные
3) Регулярно коммандируемые
Десктопы некому пиарить. А на топовые игровые ноуты всегда куча обзоров, которые скорее служат имиджевой рекламой производителя. Собс-но для этого и штампуют эти гейм-ноуты, похоже.
Отличие десктопа от ноутбука заключается в том, что десктоп вы можете собрать из отдельных компонент, а ноутбук — нет. Поэтому десктопы как единое целое нет смысла пиарить.
Гейм ноуты нужны ради одного, чтобы можно было в любом месте пожарить яичницу или воспользоваться в качестве фена с горячим воздухом.
Несколько раз встречал информацию от людей, занимающихся ремонтами ноутбуков, что половина всех ноутбуков, находящихся в ремонте в сервис-центрах — это как раз позиционирующиеся как игровые, и причина поломки у них — перегрев.
Истину глаголят. Если использовать постоянно, регулярно играть и давать другие большие нагрузки, делая это во всех возможных местах и позах (за столом, в кресле, на кровати, в самолете, автобусе, электричке) — даже у моделей с вроде как чепуховым (по меркам игровых ноутов) ТДП видяхи 20-30 Вт — она года через три может «отвалиться». Лично у меня в двух ноутах отваливался чип, хотя в одном был Rdeon HD5470, во втором — GeForce GT610. А еще помню, во времена вапа была такая мобильная соцсеть спейсес. И посиживал я там в форуме, по компам и железу людей консультировал иногда. Так ко мне неоднократно обращались люди старшего школьного возраста с просьбами подсказать нормальный игровой ноут. Не раз объяснял про нагрев, про все то, что крайне не рекомендуется с ними делать, чтобы не кипели. Кто-то решал, что при таком раскладе лучше уже стационар+нетбук, несколько человек купили таки ноуты. Из них двое потом очень долго (год может) меня постоянными вопросами доставали, как уменьшить нагрев, как убрать тротлинг, как сделать, чтобы вертушки не так шумели, и т.д.
Ключевое слово ТОЖЕ.
Хоть я и не геймер, но напуркуа бы мне отдавать 100+ тысяч рублей за то что я получу за 25-30 максимум.
Днесь вот пробегали dell t3500 по 8тр за платформу без озу и хдд. Докидываем 64 гуга рамы, ссд и видяху покруче и получаем в пределах 30к тазик на котором ведьмак на ультра графике бегает на фпс не ниже 60.
Вы ведь это несерьёзно пишете? Потому как 64 Гб оперативки это уже как минимум 22000 рублей

Я думаю человек опечатался, там по спекам максимум 24гб (6х4гб ЕСС ддр3), на али это тысяч 5 рублей.

Крутая цена, не знал про такой аттракцион невиданной щедрости. А почему так дёшево?

это вам лучше спросить у наших китайских братьев :)

Да, спасибо за поправку, разумеется 24
Эх… Покупал в 2013 году по 700 рублей плашка на 8 гигов.
Да, хорошее время было из-за перепроизводства оперативной памяти. И в ноут, и в десктоп по 16 гигов воткнул. Зато харды из-за потопа были дорогие.
По моему на них больше обзоров просто делается, слюнями покапать, вокруг попрыгать.
Все же хабр это некая ниша. У меня закрылась (точнее существенно перепрофилировалась) дружественная компьютерная фирма которая существовала лет 20. Почему? Директор сказал, а все — компьютеры никто не покупает. Можно конечно сказать, что не смогли трансформироваться в торговлю всем подряд — когда и процессоры и кофеварки и телефоны. В основном фирма поставляла компы организациям и редким физическим лицам типа меня.
Несколько лет назад ко мне регулярно обращались друзья чтобы я им собрал комп. Все прекратилось. Теперь я иногда помогаю купить друзьям ноуты и сразу их проапгрейдить — поставить больше памяти+SSD.
Организации стали больше покупать компьютеры от большой тройки, так как разница в цене минимальная, а качество и сервис не сравнить с локальными сборщиками.
А кто у нас большая тройка в этом сезоне/веке? В качестве думаю разницы нет вообще, насчет сервиса — вопрос спорный — как угодно может быть, у маленьких фирм преимущество в мобильности и возможности нетривиальных решений. Но это конечно отчаянно холиварно. )))
Мы все компы (включая многопроцессорные серверы) сами собираем и немного допиливаем, но мы лаборатория.
UFO landed and left these words here
Сервис, а в России им кто-то пользуется?

Да, крупные корпорации пользуются, особенно бюджетные.

Сервис, а в России им кто-то пользуется?

Я пользуюсь, причем не только в заржранске, но и в филиалах за сотни километров, где хелпдеска нет вообще. Очень удобно когда запчасть присылают (иногда с инженером для её установки) через пару дней после обращения.
По качеству у брендов лучше корпуса (толще сталь, меньше размер, удобный дизайн и разбираются без отвёртки) с БП, регулярно обновляют UEFI, есть готовые пакеты драйверов для деплоя и серийник сохраняется при замене материнки. Из минусов: нельзя поставить мощную видеокарту из-за БП (справедливо и для младших WS) и сейчас Dell стал использовать нестандартный форм-фактор даже в MT (лучше сразу брать SFF).

А у сборщиков SLA с ремонтом на месте либо нет вообще, либо просят за него неприличных денег, да и с запчастями вечно проблемы — сегодня нет одного, завтра другого, послезавтра третьего и потом это напоминает о себе, если замена оказалась косячная.

С серверами другое дело: цену делают опции и у tier 1 они в 2-4 раза дороже, так что даже с услугами «местных вендоров» платформы от Intel или Supermicro выходят в разы дешевле.
гейминг и еше раз гейминг

нищебродинг и еще раз нищебродинг. Самый популярный вариант.
Если процессор действительно хорош — то как он получился?

Да очень просто — Интел сидели на месте, развлекались с термопастой, с блокированием разгона, добавляли одну самую важную ножку на сокет… вот и дождались когда АМД догонит.
У Intel`а вообще в природе заложено то отломать, то добавить
одну самую важную ножку на сокет
ИМХО неудивительно. AMD на своих FX процах смогли уложить 8 ядер 4.0 ГГц в 125 ватт, при том что техпроцесс был 32нм. При всем при этом Intel Xeon e5 2680 (32нм) на 2.7 ГГц был 130 ватт. Теперь добавим сюда тот факт что ФХ серия стоила как грязь. А сейчас у AMD есть доступ к 14нм.
Надеюсь что райзен взлетит.
(Я понимаю что интел хеон был ГОРАЗДО круче для рендера и что де-факто у амд 4 ядра всегда простаивали из-за использования двухьядерных модулей вместо полноценных ядер. Я рассматриваю райзен как проц для игр и редкого создания видосов для тубика, буду ждать процы с 4 и 6 ядрами)
У FX никогда не было полноценных восьми ядер, потому и уложились.

Ну и что бы два раза не вставать пожелаю, что бы после релиза не вылезло никаких непредвиденных разработчиками косяков. Вроде кривых термоинтерфейсов, багов в микрокоде и тому подобного.
ядра как раз были полноценные, там какой-то блок (целочисленный или с плавающй запятой) был один на два ядра и поэтому де-факто получалось 4 модуля вместо 8 ядер
P.S. насчет веги — радеон 7970 все еще советуют, спасибо новым драйверам и GCN. вега в любом случае сможет.
С плавающей запятой. И декодер всего на 2 инструкции/такт (у интел 4/такт). В результате даже если 2е ядро этими разделяемыми блоками в данный момент не пользуется, то их не получалось по полной загрузить работой из одного потока.

В результате при однопоточной нагрузке сильное отставание от Intel. А вот если ПО все 8 потоков более-менее равномерно загружает получалось вполне на уровне с младшими i7 работающими в те же 8 потоков.
насколько я понял, программы считали двухъядерный блок одним ядром как раз из-за одного плавающего блока и поэтому они не работали на полную
Они бы ещё и дрова для последней убунты допилили нормально — вообще была бы сказка. А то при обновлении с 15 до 16 убунты пользователи получают дикое разочарование.
Чипсетных драйверов для Windows 7, кстати, тоже не будет.
третий процессор Ryzen 7 1700 с энергопотреблением до 65 Вт


У ализара потребление = tdp.
В случае с процессором оно в целом так и есть. Ему больше некуда энергию девать.
Таки нет, tdp почти никак не связана с потреблением и даже выделением тепла, так как определение для него придумывает производитель
Для примера - вот так его понимает интел
The upper point of the thermal profile consists of the Thermal Design Power (TDP) and the associated Tcase value. Thermal Design Power (TDP) should be used for processor thermal solution design targets. TDP is not the maximum power that the processor can dissipate.
tdp != тепловыделение в общем-то, это абстрактное «требование к системе охлаждения». у амд было довольно честным раньше (как с райзенами — тесты покажут), у интелов порой случались казусы, когда i3 мобильный с tdp 17W кушал более 30Вт под нагрузкой… вроде ivy bridge какой-то.

Всегда считал, что 99% энергии, потреблённой процессором идёт в тепло (из-за паразитных ёмкостей/сопротивлений), разве это не так?

В общем и целом 100% любой энергии рано или поздно становятся теплом.
Вопрос только в том когда, где и в каких количествах именно.
Очень хорошая весть для пользователей Intel.
UFO landed and left these words here
В плюсах вы сравниваете с Интел, а в минусах сравниваете с чем?
UFO landed and left these words here
— всякие intel ME и прочий бред который они пихают в процы анб и копирастов ради

У AMD есть свой ME, называется Platform Security Processor.
Я бы минусы объединил. При текущей пропускной способности памяти смысла в AVX512 попросту нет.
Ну то, что смущает, что мало тестов, так процессоры ещё не начали продаваться. Ждите, осталась неделя.
Это отличная новость для всех в мире, кроме сотрудников и акционеров компании Intel.

Думаю не совсем так, так как что то мне подсказывает, что антимонопольный комитет уже придерживает Intel за причинное место, по x86.

За последний год стоимость акций AMD выросла с 2 $ до 14$. Похоже уже и инвесторы поверили в камбек AMD на рынок декстопных процессоров.
А есть сравнение по соотношению производительность/энергопотребление?
Чего то подозрительная разница между 1700 и 1800Х. 170 енотов за 600 МГц при разблокированном множителе — это как понимать? В 1700 кристалл настолько отбракованный что только 3.0/3.7 и может? Больше мне как бы не надо, а вот если он у меня через 4-5 лет крякнет — будет обидно
Информации о серверных процессорах AMD пока нет. Сейчас они выкатывают только флагманские десктопные процессоры.
16 ядер — серьёзная подножка серверному интелу. Узнать бы ценник.
32 же ядра(64 потока), а не 16.
А 12 и 16 ядерные давно уже были. На 12 ядерных от AMD (примерно как 2 Phenom II X6 в одном кристалле со сниженными частотами) не только сервера делали, даже по суперкомпьютерам одно время существенный кусок рынка откусили.

Надеюсь, что амд взлетят, ибо интел откровенно обнаглели без конкуренции, начиная после санди бриджа показывать 3-5℅ прироста.
Интересно, что там по разгону и производительности у 4с/8т

Может потому что уже не получается получить прирост больше чем 3-5? Легко показывать 40% прирост после 10 лет простоя еще и в единственном тесте на который ты изначально точил инструкции.

Интересно, какова причина остановки роста тактовой частоты? Почему уменьшение техпроцесса на порядок не дало возможности создавать процессоры с частотой 20 ГГц?

Если детально: https://habrahabr.ru/company/intel/blog/194836/
Если коротко — как минимум тепловыделение будет от 500вт до небес.

Как раз эта статья вызывает только ещё больше вопросов:


Один из таких способов – переход к более совершенному технологическому процессу.… Тем не менее, производители микропроцессоров постоянно совершенствуют технологический процесс, и частота за счет этого постепенно ползет вверх.


До 32 нм всё так и было: 45 нм — предел 3600 МГц (максимальное повышение частоты без значительного повышения напряжения), 32 нм — предел 4500 МГц, а затем всё встало. Сейчас уже 14 нм — предел всё те же 4500 МГц.

Сложно сказать, т.к. я не специалист. Можно лишь порассуждать. Например AMD FX-8370 удалось разогнать до рекордных 8722 МГц, он на 32нм, по моим прикидкам он выделял около 530вт тепла в таком режиме и охлаждался азотом. Если же посмотреть табличку с рекордами тут https://valid.x86.fr/records.html То видно что с переходом на новых техпроцесс макс частота падает, потом они улучшают архитектуру и разгон снова повышается до 8 с копейками ГГЦ, причем эта граница держится еще со времен Пентиумов 4, напряжения на которых берутся рекорды тоже подозрительно похожие (около 2 или около 4 вольт). Т.е. фактически тех процесс вообще ни как не влияет на предельную скорость работы уже давно. А влияет он только на то, сколько транзисторов можно впихнуть в полу киловатный кипятильник размером с брошку.

Самый быстрый П4 был 3.8ггц, самый быстрый и7 на 14нм, барабанная дрожь тоже 3.8 ггц в турбо. С умеренным разгонов 99% камней возьмут 4.1-4.3 ггц, т.е. половину от рекорда, в свое время то-же было у П4.

Лично я делаю вывод что 9ггц это на данный момент предел частоты кремневых процессоров, а половина от предела это серийный результат. И т.к. про это проблему молчат уже много лет, скорее всего она принципиальная, роста частоты ждать не стоит, все что сделано из кремния понемногу подтянется к частоте в 4-4.5 ггц и на этом остановится. А маркетинг создаст искусственную градацию вниз.
Самый быстрый i7 в плане штатных частот это 4,2/4,5 ГГц: i7-7700K

Как раз поэтому его для «битья» AMD взяла в тесты которые тут обсуждали — быстрейший из существующих 4х ядерных при штатной работе.

Так же были FX от самой AMD штатно работающие на 4.5 и 4.7 Ггц, хоть и очень прожорливые.

Так что прогресс по частоте в зависимости от техпроцесса есть, хоть и очень медленный. Тем более у P4 была совсем другая архитектура — специально оптимизированная на достижение больших частот в ущерб многому другому. Настолько в ущерб, что эти высокие частоты его не спасли.
И современные i7 это дальние потомки/глубокая модернизация Pentium III и Pentium M, а не P4 с которым сравнивать не особо корректно. От них частоты выросли в 3-4 раза уже.

Что же до того почему не растет. Где-то читал, что уже вообще постепенно упираемся в барьер задаваемый скоростью света.
Хоть и кажется что она почти бесконечно большая и задержки из-за нее ощутимо сказываются только в космических масштабах или хотя бы при скоростной связи с другим континентом, но это только кажется. Даже если на пальцах прикинуть — для штатной частоты работы последнего i7 в 4.5 ГГц электрический сигнал распространяясь со скоростью света за один такт успевает пройти всего 300000000/4500000000 = 0.067, т.е. всего 67 миллиметров.
Причем это в идеальном случае — за 1 такт на 67мм расстояния реальный сигнал не передать — через 1 такт «на другом конце» значения какого-то показателя (напряжения, силы тока и т.д.) только начнет меняться. Само изменение тоже занимает время.

67мм это конечно больше размера кристалла процессора или тем более размера 1 ядра в нем (а между ядрами и другими модулями в кристалле передача идет на меньших частотах).
Но уже вполне сравнимо. Тем более что в реальных схемах сигналы передаются далеко не по прямой дающей кратчайшее расстояние. И это далеко не единственный вид и причина задержек, но зато фундаментальный и неустранимый.

Поэтому создать и показать работу(переключение) единичного транзистора на частоте скажем в даже 100 ГГц — довольно легко. А вот даже имея такие транзисторы, создать из них очень сложную схему (типа процессорного ядра) разные части которой удалены друг от друга в пространстве, но при этом должны работать синхронно друг с другом — уже скорее всего принципиально невозможно.
Я не совсем понимаю при чем тут архитектура и наследие между процессорами. Я лишь сравниваю частоты одних из самых сложных интегральных схем из разных эпох с разрывом в 10 лет.

Насчет 7700К да проморгал, спасибо, очень он свежий. Я смотрел на 6920HQ http://ark.intel.com/products/88972
Но даже с учетом этого, моя теория в целом верна. За счет третей или четвертой оптимизации тех процесса 14нм они смогли повысить качество и поднять частоту еще немного. Но если посмотреть на рекорды разгона, то там все те-же 7.3 ГГЦ (думаю потому что он свежий, и через год будет около 8ГГЦ) и все те-же 2 вольта напряжения.

Даже если все процессоры будут по качеству как самые идеальные образцы и будут работать под 2В напряжением, выделять 600вт, то частота все равно будет фиксированная, и менее чем в 2 раза больше чем сейчас. Это идеальный сценарий. А в реальном сценарии ни какого роста частоты «в разы» и уж тем более «на порядок» не будет. Я даже не уверен что 5 ГГц возьмем в ближайшем будущем в серийных образцах.

Меня другой вопрос интересует, если взять процессор по тех процессу 65нм и сделать его с точностью 14нм процесса, можно ли будет повысить процент способных к 7ГГц до значительного? И не получится ли что i7 2го поколения на 7ггц будет быстрее чем i7-7700K на 4.5 ггц.

И вот еще момент, если верить википедии то транзистор по технологии 65нм на порядки превосходит по частоте процессоры, т.е. частотные пределы транзистора давно перестали быть сдерживающим фактором, и от меньших тех процессов роста частоты ждать не стоит. Очевидно проблемы в чем-то другом, возможно в скорости света, возможно в наводках, возможно в перегреве, возможно в чем-то другом. Но не похоже чтоб их пытались решить.
Сейчас просто выжимают оптимизацию из существующей технологии, софт и железо притираются, вводят новые команды, новые подходы к написанию кода. А вот гонка гигагерцов уже лет 10 как завершилась.
Притом, что в плане работы основных вычислительных блоков P-3 и P M это были даже более сложные и совершенный схемы чем P-4, основу которого упростили специально для достижения высоких частот. Потом в последующих от этого отказались и вернулись к предыдущим вариантам.
Так что если бы современные процессоры были наследниками P4, а не P3, то сейчас мы бы видели серийные процессоры работающие в штатном режиме на частотах 5-6 ГГц, 6-7 ГГц при стандартном разгоне и штурмовали отметку 10 ГГц при экстремальном. Правда по реальной полезной скорости (вычислений) они были бы наоборот хуже современных.

Я даже не уверен что 5 ГГц возьмем в ближайшем будущем в серийных образцах.

Я же упомянул AMD с 4,5 и 4,7 ГГц базовой частоты: AMD FX-9590, вышел больше 3х лет назад, 4.7 Ггц базовая, 5 ГГц турбо, до 5.2 ГГц турбо если только 1-2 ядра загружены.
До сих пор самый высокочастотный (но не самый быстрый) серийный x86 процессор.

Все еще свободно можно купить и относительнонедорого
Хотя врядли стоит — соотношение цена/качество не ахти. Лучше либо FX-83xx, которые почти в 2 раза дешевле, но только на ~20 % медленнее. Или если денег много то Intel i7.

И не получится ли что i7 2го поколения на 7ггц будет быстрее чем i7-7700K на 4.5 ггц.

i7 2го и поколения переделанный по 14нм по частотам скорее всего практически не отличался — никаких значимых изменений в архитектуру за все эти 5 поколений так и не внесли — увеличивали объемы разных буферов, улучшали точность предсказания ветвлений, сильно нарастили мощность встроенного GPU и т.д. Но само х86 ядро практически тем же осталось.
А вот если взять какой-нибудь из последних P4 и просто конвертировать его схему на 14нм, то частотные рекорды будут.
Насчет архитектуры Р-4 версия интересная, спасибо. Жаль нельзя ее проверить на практике.

Насчет турбо скорости в 5ггц у единственного процессора с тепловыделением выше 220вт, да вы правы оказывается он есть (я не знал), и формально он серийный, но фактически очень большая редкость, которую довольно сложно иметь дома. Не уверен что его вообще можно охладить воздухом если честно… Так что для меня это выглядит скорее как промышленно разогнанный экземпляр для энтузиастов. Можно отобрать чипы которые способны брать и большие частоты, собственно оверклокеры это и делают. Но какой процент выхода годных чипов будет? А какое охлаждение нужно будет? Ну т.е. это все еще не массовый продукт. Возможно я не правильно подобрал слово «серийный».

Насчет 14нм возможно вы не совсем поняли мою идею. Я предлагал не уменьшить размер транзисторов, а повысить точность создания крупных транзисторов. Т.е. трафарет от 32нм, а точность изготовления от 14нм. Возможно повышенная точность даст больший % процессоров способных разгонятся до 7+ ггц. Т.е. если сейчас на это способен один из 1000, то с таким трюком будет каждый 10ый. Мне просто кажется что способность к разгону конкретного экземпляра зависит напрямую от погрешностей изготовления, чем их меньше — тем выше предельная частота.

"единичного транзистора на частоте скажем в даже 100 ГГц… А вот даже имея такие транзисторы, создать из них очень сложную схему"


Частоты транзисторов уже выше 100 ГГц (хоть это и немного другие транзисторы, но порядок примерно такой) — Samsung 28nm "Ft (maximum unity gain frequency) of 280GHz and Fmax of 400GHz" — http://electronics360.globalspec.com/article/4078/samsung-foundry-adds-rf-to-28-nm-cmos
Собранная из транзисторов схема (любая — т.е. даже локальная типа сумматора или стадии ALU/FPU блока) для повышения своей полезности за такт переключает целые цепочки транзисторов. Традиционно задержку схемы (critical path) считали в т.н. Logical Effort в нормализованных (не зависящих от техпроцесса) единицах, например в τ, где одна τ = 3RC ("delay of an inverter driving an identical inverter with no parasitic capacitance") или в "FO4" (Fan-out of 4 — "one FO4 is the delay of an inverter, driven by an inverter 4x smaller than itself, and driving an inverter 4x larger than itself.… 5·τ = FO4"). В http://en.wikipedia.org/wiki/FO4 есть некоторые оценки длины такта в единицах FO4 для разных процессоров: "IBM Power6 has design with cycle delay of 13 FO4;3 clock period of Intel's Pentium 4 at 3.4 GHz is estimated as 16.3 FO4.4"; Еще примеры из http://www.realworldtech.com/fo4-metric/ — Revisiting the FO4 Metric, 2002:


  • Horowitz, Page 38[1]: “Current” SOA is approximately 16 FO4.
  • Hrishikesh et al. [5]: Current Intel Processors are ~12 FO4.
  • Chinnery et al. [3]: Alpha 21264 has 15 FO4.
  • Chinnery et al. [3]: Custom IBM PPC test chip, 1 GHz @ 0.25um, FO4 of 13.
  • “in a standard 0.18um process, a typical flop equates to about 3 FO4 delays, with the FO4 delay being about 25ps”
  • POWER6 FPU — http://www.eetimes.com/document.asp?doc_id=1159233 — 65-nm SOI 4-GHz — 13-FO4 pipeline

Примеры схем и их FO4 http://www.realworldtech.com/fo4-metric/3/ — быстрый 64-битный однотактный сумматор — 7-5 FO4, разные варианты сдвига — http://www.realworldtech.com/fo4-metric/4/; часть FO4 требуется затратить на skew синхросигнала и slack/guard тригерров вокруг комбинационной логики.


К сожалению в оценках схем через FO4 не учитываются задержки проводов, а сейчас именно провода в большей степени ограничивают скорости (и кроме того, в длинных проводах частенько ставят усилители, которые также имеют задержку). Рекомендую материалы с https://inst.eecs.berkeley.edu/~cs250/sp16/ (осторожно, соавторы Risc-V) —


  • https://inst.eecs.berkeley.edu/~cs250/sp16/lectures/lec04-sp16.pdf Physical Realities: Beneath the Digital Abstraction, Part 1: Timing. (провода с 15 слайда) 24: Flip-Flop delays eat into "time budget", Clock skew also eats into "time budget", "Components of Path Delay"; 36 — retiming of Power 4; 42 — предлагают подход GALS: Globally Asynchronous, Locally Synchronous с синхронными блоками в 0.05-1 млн транзисторов (т.е. глобально процессор как раз асинхронен — каждое ядро или пара ядер работают на своем дереве синхросигнала — http://images.anandtech.com/doci/10127/OC%20Diagram.png — SKL-S — Skylake on LGA 1151 — 3 входных напряжения: uncore, gpu, ядра+кэш; 4-5 коэффициентов от BCLK: GPU, core, ring, memory. Haswell, LLC. В многоядерных у Интел уже в 2014 году было 3 clock domain по 5 ядер в каждом)
  • https://inst.eecs.berkeley.edu/~cs250/sp16/lectures/lec05-sp16.pdf Physical Realities: Beneath
    the Digital Abstraction, Part 2: Power & Energy: "Computations per W-h doubles every 1.6 years", Switching Energy, Leakage Currents, Device engineers trade speed and power, Six low-power design techniques
  • https://inst.eecs.berkeley.edu/~cs250/sp16/lectures/lec07-sp16.pdf Memory Technology and Patterns (там от длин проводов могут увеличиваться задержки доступа к большим массивам)

Существуют проекты технологий с пониженными задержками логического элемента (и резко пониженными температурами, жидкий азот для них слишком горяч; 4-7 K) и огромными проблемами каскадирования более 3-4 элементов друг за другом. Авторы вынуждены строить "процессоры" и "алу" с очень короткими (в единицах FO4) стадиями
https://pdfs.semanticscholar.org/015c/52e3ee213ae1d0eefe8815a0023bd48a4d99.pdf#page=4
"eight bit-stream arithmetic logic units (ALUs) interleaved with eight 8-bit general-purpose integer registers (R0-R7)" (АЛУ работает побитно, каждый однобитный кусочек АЛУ находится рядом с "битовой колонкой" регистрового файла), "A single-bit ALU (bALU) has a 3-stage execution pipeline" — один бит в АЛУ обрабатывается в 3-тактовом конвейере и это bit-sequential processor, т.е. для одной операции над 8 битным регистром требуется 12 тактов. Зато тактовая частота 17-20 ГГц.

Спасибо за пачку интересного чтива.

Ну в общем как и думал от всех этих «нано» технологий на базе графена или нанотрубок, где демонстрируют одиночные экспериментальные транзисторы работающие на частотах до порядка Террагерца можно ничего особо не ждать.
Т.к. и обычные кремниевые транзисторы уже давно и в серийном исполнении могут работать на сотнях ГГц частоты. И все уже ограничивается в первую очередь схемотехникой, а не базовыми элементами.
При всей любви к АМД, меня всё же настораживает наименование линейки ровно как у Интела: 3, 5, 7. Когда внедрили аналогичный по смыслу p-рейтинг, с производительностью у АМД было не очень…
Да ну? Athlon 3200+ уверенно бил по производительности Pentium 4 3.2 Ghz (которому равен по рейтингу) и шел на равных при разгоне «пня» до 3.4-3.5 ГГц. Собственно AMD примерно на 10% занижала рейтинг процессоров (видимо подстраховывались)

А вот с выходом Core/Core Duo — да, дела AMD стали печальнее.
Отличные новости. Неужели вернутся времена, когда можно было взять нормальный компьютер за вменяемые деньги? И не важно на интеле или на АМД.
Отличная новость!

Самый интересный вопрос о кодировании видео — использовали ли они ускорение встроенного видеоядра. 630 графика интела дает в 264 кодере х10 производительность. никакому процессору этот прирост и не снился — если нет то сравнение некоректно. Даже видео паскаль с кудой не достигает такой скорости как то что сделали в видеоядре интел!


Так то меня интел бесит. Начиная с термопасты под крышкой и заканчивая архитекторными нюансами. Но увы альтернатив по перегонке видео нет. Ежели интел работал с видеоядром то это нереально круто что райзен смог такое.

Мне глубоко пофигу какой кодек. у меня с каждой поездки по 180 гиг несжатого видео с фотиков с потоком в 70к я его пересжимаю иногда в 10 где хочу оставить качество а иногда и в 3к когда надо оставить абы було.
Кроме того сильнейше выручает скорость одного потока ведь когда надо стабилизировать картинку то работает максимум полтора потока — один стабилизирует а второй распаковывает/запаковывает назад. и вот тут то амд сразу в пролете ибо даже в топе на один поток они слабее i7 а i7-7700 на один поток слабее i5-7600 который я и приобрел недавно. Вот таки дела малята. я свой проц не могу загрузить на 100% — максимум 75. Нет смысла в 16 потоках когда у тебя одна задача!

Вы правда считаете, что фотик будет жать лучше? Задача фотика — сохранить видео в реальном времени, а не максимально сильно сжать видео.

core i5-7600k есть встроенная графика hd630
легко конвертирует 4к в 5 раз быстрее чем реальное воспроизведение при этом загрузка проца 30%.
я говорю о том что мне всеравно чем они этого добились но если с фотика моего 1 час видео конвертируется 2 минуты то я офигеваю от скорости а если пол часа то я офигеваю от тупости. для примера могу привести время конвертации с использованием видеокарты hd630 — 2 минуты. и без видеокарты — только проц 4 ядра 4 потока — 20 минут. тот же ш7-7700 этот же видик конвертирует 13 минут без видеокарты и 8 минут в паре с 1080 нвидиевской. апаратное nvenc естественно задействовано. Мне побоку внешней или внутренней. кстати если вставить ко мне внешнюю видео в систему — внутренний кодек остается работать! тоесть как видеокарта она гуано может быть но как апаратный ускоритель h264 — отличная штука! и зачем мне 16 ядер если распаковка архива — один поток, проведение документов в 1с — один поток, 99% игр — 2 потока, фотошоп — 3 потока, лайтрум 4 потока. Даже 4 ядра я нереально редко вижу занятыми на 100%. зато регулярно вижу 25% загшрузку — тоесть уперлось в одно ядро и все… тупим…


Фотик может писать 20кбит но это такое порно что лучше писать в 80 а потом компом перегонять. тем более есть моменты которые надо покачественнее сохранить а есть такие что и удаляются до перегонки.

13 минут без видеокарты и 8 минут в паре с 1080 нвидиевской

Что-то здесь нечисто. Хотя, если почитать поподробнее, то окажется, что:


  1. Видеокарты не очень подходят для кодирования видео из-за особенности их архитектуры. Терафлопсы у 1080 просто не получается эффективно использовать в конкретной задаче.


  2. Intel добавила в интегрированное видеоядро отдельный участок, который занимается только видео.

Тогда не удивительно, что полноценный аппаратный кодер будет выигрывать по скорости у неспециализированного инструмента. И это хорошо. Надеюсь, следующим этапом развития процессоров будет аппаратный FRC (frame rate conversion).


А основной недостаток встроенного кодера у Intel, судя по отзывам — это жертва качеством ради скорости и меньшая гибкость в настройке кодера. Но для большинства пользователей это не критично — ну будет файл больше размером в итоге, ну и ладно.

Видеокарты не очень подходят для кодирования видео из-за особенности их архитектуры.

У всех современных видеокарт есть аппаратные блоки кодирования видео. Если говорить конкретнее — AMD VCE, NVENC (aka PureVideo).
Я не видел сравнения кодировщиков Intel vs AMD/Nvidia, но, думаю, качество и скорость там явно не хуже.
clawham
Отличный пример, что многоядерность нужна не всем. А мне наоборот — нашим расчетам чем больше ядер, тем лучше. Причем многоядерность важнее чем частота в некоторых диапазонах того и другого.
Больше процессоров хороших и разных!

Раз так то вам путь к серсверным ксеонам с 12 ядрами. Или к платам с 2-3 такими процами на борту. Или уже освойте Куду — там полторы тысячи процев +-.
Извольте мы говорим не о зионах серверных, которые и разрабатывались для 100500 потоковости а о обычных консьюмери процах где максимум что в 99.9999% задач это 1-2 потока игры видео и иногда — какие-то Click-to-convert приложения "уменьшить размер видео с фотика" и все. Не думаю что каждый пользователь дома брутфорсит хеши или майнит коины — для этого процы безнадежны — видеокарты намного лучше но тоже увы полный шлак уже — электричество не отрабатывают. Революции не будет… не произошло… увы. ЗА последние 6 лет скорость одного потока реально возросла всего лишь в два раза.

Или уже освойте Куду — там полторы тысячи процев +-.

Освойте куду, освойте куду… Предположим, у меня есть задача, где мне надо параллельно оптимизировать параметры кучи мелких функций (ну, математически, как в методах оптимизации) по методу наименьших квадратов, скажем. В C++ под обычные x86 у меня есть, скажем, dlib, куда я просто запихиваю искомую функцию, её производные и точки, а она дальше сама всё делает. Как мне быть под кудой? Писать всё это руками и благодарить nvidia, что хотя бы базовые матричные операции уже реализованы?

Если я знаю как и что считать то мне всеравно как и на чем это реализовывать. а если доверять всяким длибам неизвестно под что оптимизированным и под что писанным то конечно начинаются поиски того камня который и был у разработчика этого длиба когда он её писал.


Потому многие свои расчеты я по раз 20 переделываю в программе через разные функции разные способы выделения амяти и т.д. пока не получу наилучший по скорости результат с наименьшими затратами памяти. И зачастую готовые универсальные библиотеки проигрывают конечному результату сделанному под конкретное имеющееся железо(на котором оно и будет крутиться) и под конкретную задачу. Яркий тому пример — printf и вся его братия из STDLIB которая вместе с ним едет. в условиях микроконтролеров это иногда выливается в занятие половины флеша ненужными универсальными функциями которые на отображение примитивного 4значного числа могут зажрать под 8000 тактов. в то время как руками написанная функция -аналог без ничего лишнего укладывается в 2% флеши и 400 тактов. Что называется почувствуй разницу.


Потому возражение не защитано. Я могу привести ещё 100500 примеров когда стандарнтые либы не подошли а немного допиленные руками — взлетели/загудели. У каждого камня есть свои слабые и сильные стороны. Сила программистов ресурсоёмких приложений — эксплуатировать сильные стороны и обходить слабые.

Я бы не стал сравнивать printf с библиотеками для линейной алгебры, например.
Я сейчас вообще не программирую, так что так мимопроходил. Но в том же в послених его версиях dlib есть поддержка GPU и CUDA в частности.

Правда там вроде бы это относится только к нейронным сетям и обработке изображений. Линейная алгебра скорее всего не портирована на GPU
Да, оно там для cuDNN или как там правильно называется. Взять и произвольный dlib::solve_least_squares_lm туда запихнуть вряд ли получится.
еще раз, что у интела, что у амд в топовых многоядерных процессорах нет встроенной видеокарты.
Что является абсолютно логичным решением: человек, который покупает топ, явно берёт его не для того, чтоб сидеть на встроенном граф-ядре и раскладывать Солитер.

нелогично — кроме встроенного видео это же ядро дает просто термоядерное ускорение h264 как енкодинг так и декодинг. сидеть на нем понятное дело нет смысла но в некоторых задачах оно нереально полезное дело!

Чуть выше там уже говорили, что аппаратный энкод 264-го у Интела так себе. Я вынужден присоединиться, и выразить аналогичное мнение.

Зато аппаратный декодер очень полезен в мобильных устройствах. Десктопу пофигу: декодирование — процесс не очень затратный, а вот в случае ноутбука даже небольшая нагрузка может сильно повлиять на время автономной работы.

Энкодить на мобильных устройствах h264 — очень такой странный кейс. Для меня, по крайней мере. В любом случае, не нужно путать десктопные камни с предназначенными для работы в переносных устройствах. Это совершенно разные разницы, которые никакого отношения не имеют к изначальному недовольству lolipop тем, что встроенного видео нет в топовых десктопных камнях.
эм, вообще-то я недовольства не высказывал, я так-то просто констатировал. но вообще грустняво, когда снимаешь на задохлый айфончик видео в 4К, а потом не можешь на 6ядерном компьютере с топовой видеокартой проиграть.
Откровенно говоря, не понимаю увлечённости по 4K.
У меня до сих пор 1920х1200, и мне хватает на 27 дюймах выше крыши.
Ну, у меня Linux, мне проблемы виндошрифтов попросту неизвестны.
Уже скоро пару лет будет, как не загружался.

А причём здесь виндошрифты? Любой шрифт будет выглядеть лучше, если его рендерить с высоким DPI.


А проблема в том, что Linux до сих не умеет нормально работать с HighDPI: в нём это делается на уровне приложений. Если приложение не поддерживает переменный DPI, то оно будет отрисовываться очень мелко.


В Windows же приложение, не умеющее в HighDPI, система просто обманывает. Таким образом, в Windows масштабируется всё (ну кроме случаев, когда приложение заявляет, что оно DPI-aware, а на самом деле нет).

А мне HighDPI и ни к чему: на 1920х1200 сглаживание на 96 ppi вполне нормально справляется, и глаза ничто не режет.
Извините, на 27 дюймовом мониторе? Меня на 23-х дюймовом артефакты сглаживания бесят (на расстоянии вытянутой руки). Я про цветовые шлейфы слева и справа. На мой взгляд четкая попиксельная лесенка лучше трехцветной линии.
Вообще даже не представляю о чем вы говорите, какая еще цветная лесенка? Пользуюсь 27" на 2560х1440 на расстоянии метр, до этого были кучи разных экранов на разных расстояниях, ни когда не замечал ни каких проблем с шрифтами в винде. А сглаживание шрифтов добавляет полу темные пиксели, а не цветные.