Pull to refresh

Comments 127

Детально, однако:
Рассматривать производительность сферического процессора в вакууме — не всегда правильно :-)
Сравнили бы лучше в категориях мать+проц за 150$, за 200, 250, 300…
Для интела результаты были бы более грустные )

Ибо нет у Интела 4-х ядерников за 100$ :-) И много чего вкусного у Интела от 300$ с матплатами за 200$ :-)

PS. Сам на Интеле…
Рассматривать производительность сферического процессора в вакууме — не всегда правильно
Более конкретных обзоров в сети достаточно. У этого материала несколько другие цели.
А если хочется примеров конфигураций — они конечно будут. Но в сааамом конце =)
UFO just landed and posted this here
философия:
— Более мощный компьютер глючит быстрее и точнее...)
Все равно, если открыть в фотошопе документ 8х8 тысяч (текстура) — он ощутимо подлагивает при многих фильтрах/инструментах.

P.S.: не верю, что GTX260 или 4870 мало для фотошопа.
UFO just landed and posted this here
Именно так. Аппаратного ускорения самих операций нет.
UFO just landed and posted this here
Подождите CS5 =)
К Premiere вон прикрутили хардварное ускорение с помощью CUDA, он теперь 9 HD дорожек одновременно проигрывает!

Так что авось будет и у дизайнеров CUDA-счастье =)
К осени я назад вернусь в стан ATIшников, так что мне будет сплошь разочарование, если сделают не на OpenCL или чем-то подобном :(

С другой стороны — можно оставить нвидию, но поставить дрова 182, там еще нед этой идиотской залочки, и будет она пахать как физекс\cuda ускоритель.
Ну не думаю, что Адоби сделает еще движок для Stream-а =/
Да, стрим та еще гадость. Но у ати есть поддержка dx11, (аппаратно 5ххх, частично аппаратно — 4ххх и 3ххх) opencl и, наконец, ctm
CtM был мертворожденной технологией и вытеснен Stream.
Собственно Stream SDK сейчас тоже не развивается — упор сделан на OpenCL.
Так что главный вопрос — OpenCL или CUDA выберет адоб.
CTM, однако, работает, а стрим — увы :)
И, да, я его и так с нетерпением жду.
«На тип и частоту системной шины, а также множитель в общем случае можно не обращать внимания» — ошибка, причем не маленькая, если конфигурация подбирается с учетом последующего разгона CPU, это факторы стоит ставить в один из первых рядов, так же как и качество, производительность СО и, естественно качество БП.

«Видеокарта НЕ используется в процессе воспроизведения видео» — общий случай рассмотрен — отлично, но почему же не уточнить, что современные GPU силами аппаратного декодирования, существенно снижают нагрузку на CPU во время просмотра HD-видео.

«Именно на видеокарту, а не на процессор и память следует делать упор, когда собирается игровая машина» — написано так, будто нужно приобретать видеокарту high-end класса, а процессор и ОП брать по остатку бюджета, что в корне не верно. Тут важна золотая середина.

«С точки зрения производительности нам важны следующие характеристики:» — так же, стоит учитывать соотношение цена/производительность. Например, переплата за GTX285 в среднем порядка 70-90$ не совсем оправдана, тогда, как GTX275 стоит на все те же 70-90 долларов дешевле, а уровень быстродействия в игровых приложениях в среднем меньше на 5-7%, что, естественно, не соответствует разнице в их цене.

«Всякий бюджетный хлам» — Вы думаете, что каждый может выделить на приобретение видеокарты, сумму большую 80 долларов? Ведь далеко не всем нужна производительность любой ценой, есть исключительно рабочие РС (офис, веб-серфинг и т.д.).

«Уровнем комфорта» — вдвое больше, т.е. 50-60FPS» — в вопросе комфортного количества кадров, нужно учитывать жанр игр, скажем, в стратегиях 50-60 кадров — это излишество, там как раз 25-30 и является комфортом.
если конфигурация подбирается с учетом последующего разгона CPU, это факторы стоит ставить в один из первых рядов, так же как и качество, производительность СО и, естественно качество БП
Сказано же — в общем случае.
Про разгон будет следующая часть ;)
почему же не уточнить, что современные GPU силами аппаратного декодирования, существенно снижают нагрузку на CPU во время просмотра HD-видео
Вы видимо плохо статью читали, про это сказано.
Тут важна золотая середина.
не соответствует разнице в их цене
А первую часть не читали вообще =)
Всякий бюджетный хлам
Под бюджетным хламом я понимаю всякие поделия вроде 8400GS
Вы думаете, что каждый может выделить на приобретение видеокарты, сумму большую 80 долларов?
За 80 долларов, к слову, есть много интересных вариантов
есть исключительно рабочие РС (офис, веб-серфинг и т.д.)
А этим вообще дискретная графика противопоказана — хватит обычной интегрированной графики, не говоря уже о таких решениях как AMD 785G например.
в стратегиях 50-60 кадров — это излишество, там как раз 25-30 и является комфортом
Вот когда у вас с 25-30 avg просадки до 10-15 пойдут, тогда и попомните, почему комфорт это 50-60 =)
На рабочей лошадке (офис / интернет / асечка / база данных) справится GMA 4500 встроенный. Более чем.
Дааа, прошлая статья была гораздо лучше. Отстраниться от всех маркетинговых цифр и выбирать железо исходя из потребительских характеристик. пользуясь принципом здорового аскетизма — хорошая идея.

Но эта статья… Такого количества технических ляпов и откровенного бреда в одном месте я уже давноо не видел!
Пойдем по тексту статьи, по порядку. Хотя комментарий получится немаленьким.
Итак:
> сравнение производительности современных микроархитектур в различных задачах.
ЧТО на этом графике? Что вообще значит «производительность микроархитектуры»?! Это показаны результаты при одной частоте? А с чего вдруг, частота — такое же свойство мироархитектуры, как и IPC (производительность на такт). Да и какое кому дело до реальной частоты процессора, если в магазинах процессоры не по мегагерцам продают?
Может, тогда это производительность/$? Было бы разумно, но я что-то в этом сомневаюсь ;)

> Core 2 Duo E8300 и Pentium Dual-Core E6300 выполнены на одном ядре — Wolfdale, а различаются в первую очередь именно объёмом кэш-памяти — 6мб против 2мб
Нет, отличаются они отнюдь не только объемом кэш-памяти! У них кроме объема еще и ассоциативность разная. А еще у Е6300 отсутсвует SSE4, микроархитектурно отличается, да и вообще он не более чем Allendale на 45нм. Мерять в такой ситуации 2 vs 6 мб кэша — скорее очковтирательство.

> аналогично Phenom II X4 925 отличается от Athlon II X4 630 только наличием 6мб кэш-памяти 3 уровня
Капец. Это совершенно разные ядра! Вообще! Несмотря на то, что они вроде как одного поколения. Кроме отсутствия кэша L3 у X4 630 (Propus) отсутсвует uncore, в котором у Phenom II X4 (Deneb) расположен контроллер памяти. И с памятью эти два ялра работают по-разному. Пропус, кстати, тут немного быстрее. Надо думать и-за частоты КП, которая у Денебов ощутимо ниже частоты ядра.

> Некоторые игры весьма позитивно относятся к его увеличению до 3-4Гб
Правда? Этот какие игры так относятся? Обычно их под х64 не собирают, а х32 более 2Гб откушать не могут.

> часто вы будете одновременно например играть в крайзис, рипать свежий BD-диск, а попутно ещё и архивировать что-нибудь? Мне кажется, что очень и очень нечасто.
Да, часто. В пункте про память не освещен самый важный вопрос: избыток памяти никоим образом ничегошеньки не ускоряет. Ни на процент. Зато ее недостаток снижает быстродействие в разы, если не в десятки раз.
Что касается собственно объема — то тут надо просто посмотреть на свой используемый софт. ОС, торрент, dc, антивирь. фаервол, браузер, парочка утилит в трее — вот нету гигабайта. А мы работать (а тем более — играть) еще даже не начинали! Так что о 2Гб я бы лично посоветовал забыть как о пережитке. Или готовится что любой Alt+Tab будет выполняться по 10 секунд.

> вообще, Windows ограничивается уже на 3.25Гб
Вообще, это не Windows виновата. И вообще, не на 3,25, а как повезет. Неудачный подбор устройств может отрезать и на 2Гб. Советую почитать www.ixbt.com/soft/windows-4gb.shtml прежде чем писать подобный бред.

> Видеокарта НЕ используется в процессе работы с 2D-графикой;
мм? То есть можно работать с 2D без видеокарты? Шикааарно!
То, что качество 2D у всех современных видях одинаковое (одинаково высокое) еще не значит что видеокарта тут ни при чем!

> Видеокарта НЕ используется в процессе воспроизведения видео.
Используется. Причем на ура используется! Причем справляется с декодированием тяжелых форматов гораздо лучше процессоров. Дальше по статье по полслова сказано про DXVA и CoreAVC, но насколько невнятно и неполно, вообще без указания преимуществ, что, думаю, можно высказать «фе» уже в этом месте.

> AMD выпускает апдейты драйверов строго раз в месяц, и на этот график не могут повлиять ни внезапно обнаруженные баги, ни прилёт НЛО, ни прочие факторы;
Хм, а сами АМД об этом знают? Наверно, нет, раз в случае проблем без особых угрызений совести выпускают хотфиксы.
У нВИдиа, кстати, тут все похуже (мнение как владельца): если не бегать на сайт каждую неделю за бетами, то ждать финального WHQL релиза с пофикшеным багом можно месяцами!

> имеет не 2Гб памяти, а по 1Гб на процессор. А какая разница? Очень большая — каждый из ГП может использовать только свою память. Так-то =)
И что? Ее при этом меньше стало? Бытует, правда, мнение, что память там дублируется. Но это не совсем так — дублируются в основном текстуры.

> «Уровнем комфорта» — вдвое больше, т.е. 50-60FPS.
Не только уровнем комфорта, а еще и максимумом. Какая там частота обновления у ЖК? 59-60Гц? Тот-то и оно.

Ну и так, общие замечания.
мне совершенно непонятно что за данные нарисованы на графиках, поэтому я уже после претензии к первому же — просто перестал на них смотреть. Что это? Самопал? Сбор данных с разных сайтов? Или «по ощущениям» простения аж четырех ресурсов, из которых реального уважения достойны всего два?
ЧТО на этом графике? Что вообще значит «производительность микроархитектуры»?! Это показаны результаты при одной частоте?
При одной частоте.
У них кроме объема еще и ассоциативность разная.
И много ли эта разница в ассоциативности даёт?
микроархитектурно отличается
Чем же она отличается? Тут Wolfdale и там Wolfdale.
Капец. Это совершенно разные ядра! Вообще!
Разные, но так уж критичны рахличия
отсутсвует uncore, в котором у Phenom II X4 (Deneb) расположен контроллер памяти. И с памятью эти два ялра работают по-разному. Пропус, кстати, тут немного быстрее.
Угу, вы ещё про Ganged/Unganded режимы вспомините, которые 1% отклонений в обе стороны дают)))
Характеристики, не заслуживающие внимания я рассматривать не стал.
Правда? Этот какие игры так относятся? Обычно их под х64 не собирают, а х32 более 2Гб откушать не могут.
Даже если так, то в один момент времени всё равно не только игра работает.
Или готовится что любой Alt+Tab будет выполняться по 10 секунд.
Как-то не приходится по 10 секунд ждать, хотя живу с 2Гб =)
То есть можно работать с 2D без видеокарты? Шикааарно!
Имелась в виду работа с 2D-графикой в редакторах, и то, что никаких специальных «методов ускорения» там нет (пока нет).
Дальше по статье по полслова сказано про DXVA и CoreAVC, но насколько невнятно и неполно, вообще без указания преимуществ, что, думаю, можно высказать «фе» уже в этом месте.
Это обзорная статья, я не могу вдаваться в особенности использования каждой отдельной софтины, а в целом описание ситуации дано.
Не только уровнем комфорта, а еще и максимумом. Какая там частота обновления у ЖК? 59-60Гц?
Некоторые и 120 умеют. В любом случае, «максимум» этот — видимый. Важно, чтобы был «запас» FPS, который пригодится на случай тяжелых сцен.
мне совершенно непонятно что за данные нарисованы на графиках, поэтому я уже после претензии к первому же — просто перестал на них смотреть. Что это? Самопал? Сбор данных с разных сайтов?
За основу брались крупные тесты большого количества процессоров, результаты выражались в процентах. Дальше, если наблюдалось расхождение с результатами другой лаборатории — корректировка.
аж четырех ресурсов, из которых реального уважения достойны всего два?
А это уже исключительно ваше мнение.

А с чего вдруг, частота — такое же свойство мироархитектуры, как и IPC (производительность на такт).
А вот это не совсем понял.
Да и какое кому дело до реальной частоты процессора, если в магазинах процессоры не по мегагерцам продают?
В том и цель — разобраться, что именно нужно покупать, а не что нам «продают».
При одной частоте.

А с чего вдруг, частота — такое же свойство мироархитектуры, как и IPC (производительность на такт).

А вот это не совсем понял.

Приведу простой пример: NetBurst (aka Пентиум 4). Много ли были смысла сранивать его мегагерц-к-мегагерцу с решениями К7? Верно, смысла было ноль целых ноль десятых, т.к. архитектуры были совершенно различные. и частоты тоже. То, что сейчас сачтоты одного порядка, да и архитекуры у обоих вендоров короткокнвеерные — общего правила о нелепости сравнения на одной частоте не меняет.

И много ли эта разница в ассоциативности даёт?

Разные, но так уж критичны рахличия

Угу, вы ещё про Ganged/Unganded режимы вспомините, которые 1% отклонений в обе стороны дают)))
Характеристики, не заслуживающие внимания я рассматривать не стал.

Если честно, то такие заявления чести не делают. Это же не я взялся сранивать грузина с чемоданом, почему я должен дказывать что различия существенные? Я говорю, что выбранные ядра различаются очень сильно, далеко не не только объемом кэш-памяти (как, например, Phenom II X4 9** против 8**).

Как-то не приходится по 10 секунд ждать, хотя живу с 2Гб =)

Везет значить, мало требовательного к памяти софта и в своп ничего не падает. Мне даже 4Гб было маловато, не люблю закрывать программы и не люблю своп. Но в любом случае в статье никак не освещен момент «зачем же на самом деле нужна память?», и это плохо.

Некоторые и 120 умеют. В любом случае, «максимум» этот — видимый. Важно, чтобы был «запас» FPS, который пригодится на случай тяжелых сцен.

Те, которые умеют 120 можно пересчитать по пальцам одной руки. Абсолютное большинство реально используемых моников имеют максимум в 60Гц.
А сильный «запас», который вроде бы «карман не тянет» приведет к разрывам изображения, и будем мы потом бороться с этим vsync'ом.

Это обзорная статья, я не могу вдаваться в особенности использования каждой отдельной софтины, а в целом описание ситуации дано.

Настаиваю на том, что никакого обзора возможностей не дано. Так, мимоходом написано, что, мол что-то там есть, но DXVA работает неизвестно с чем, а про CoreAVC (который, кстати, не единсвенный) написано 1 предложение, из которого даже неясно какие реальные преимущества можно получить (а они таки есть).

За основу брались крупные тесты большого количества процессоров, результаты выражались в процентах. Дальше, если наблюдалось расхождение с результатами другой лаборатории — корректировка.

То есть «по ощущениям», без какой-либо методики. Плохо. Правильно я сделал что просто все графики пропустил.

А это уже исключительно ваше мнение.

Ну… Не совсем. Из 4 ресурсов только fcenter и ixbt имеют внятную методику. оверы тестирую кто как и чем хочем, авторского состава не осталось же. Thg.ru занимается переводами, притом не всегда удачными. С методикой тоже не все хорошо, набор приложений часто меняется от статьи к статье.

В том и цель — разобраться, что именно нужно покупать, а не что нам «продают».

Для этого гораздо лучше подходит методика из первой статьи: покупаем самое дешевое, удовлетворяющее всем требованиям.
То, что сейчас сачтоты одного порядка, да и архитекуры у обоих вендоров короткокнвеерные — общего правила о нелепости сравнения на одной частоте не меняет.
Вам возможно это и кажется нелепостью, а остальным может дать полезные сведения о соотношении производительности аналогичных моделей разных брендов.
Я говорю, что выбранные ядра различаются очень сильно
Может «очень сильные» отличия и заявляются производителем, но на практике заметно только влияние того же кэша.
а про CoreAVC (который, кстати, не единсвенный) написано 1 предложение, из которого даже неясно какие реальные преимущества можно получить (а они таки есть).
Декодер CoreAVC, например, выполняет фактически ту же функцию что и DXVA, но совсем не привередлив к параметрам файла — достаточно, чтобы он была закодирован нужным кодеком (H264/AVC).
Прирост производительности в вышеуказанных приложениях при включении CUDA составляет от полутора до ДЕСЯТИ (!!!) раз.
Что не так?
То есть «по ощущениям», без какой-либо методики. Плохо.
Чёткой методики нет, но цифры тоже не с потолка взяты.
Опираясь на данные графики можно хотя бы выбрать направление, в котором изучать более конкретные тесты. Читать подробно всё подряд — не у всех терпения хватит, поэтому, ИМХО, такой материал имеет полное право на жизнь.
Для этого гораздо лучше подходит методика из первой статьи
Вообщето это продолжение методики первой статьи.
Точнее, конкретный её разбор.
Не хватает вывода, да. Но его делать рано, потому что не рассмотрен один важный аспект, которому уделена будет следующая статья.
Вам возможно это и кажется нелепостью, а остальным может дать полезные сведения о соотношении производительности аналогичных моделей разных брендов.

Ничего кроме о_О я на это даже и сказать не могу. «Аналогичные» это модели, ориентированные в одну нишу (стоящие примерно одинаково). Причем тут вообще частота?! Я понимаю еще когда на этот параметр смотрят оверы: у них цена процессора жестко фиксирована (= цене самой дешевой модели), частота тоже жестко фиксирована (= средней частоте разгона), тогда можно прикидывать что «проц Х даст мне столько-то производительности, а проц У — на 15% больше». Во всех остальных случаях такое сравнение — это полная чушь.

Может «очень сильные» отличия и заявляются производителем, но на практике заметно только влияние того же кэша.

На практике есть различие производительности, но из-за того, что отличается не только объем кэша — нет никакой возможности определить он ли так повлиял или же что-то еще. Такое сравнение — чистый фарс. Я даже не знаю как понятнее объяснить. Вот возьмем пример, смотрим на Агену (2Мб L3) и Пропус (без L3). Бааа! Дак Агена медленнее! Значит, 2Мб кэша только мешают!
А сравнение в принципе похоже на такое же для Е6300 с Е8300: Wolfdale (тут Пропус, К10.5) является небольшим улучшением Allendale (у нас тут Агена, К10), и раз отличий почти нет, думаем что различаются они только объемами кэша.

Декодер CoreAVC, например, выполняет фактически ту же функцию что и DXVA, но совсем не привередлив к параметрам файла — достаточно, чтобы он была закодирован нужным кодеком (H264/AVC).
Прирост производительности в вышеуказанных приложениях при включении CUDA составляет от полутора до ДЕСЯТИ (!!!) раз.
Что не так?


*Вздох
Самое главное «не так» состоит в том, что ни слова не сказано зачем это все нужно и какие преимущества дает.
А преимущества — это вовсе не «прирост производительности» в десятки раз (ага, 240 кадров/сек вместо 24), а снижение нагрузки на CPU.
Ничего кроме о_О я на это даже и сказать не могу. «Аналогичные» это модели, ориентированные в одну нишу (стоящие примерно одинаково). Причем тут вообще частота?!
Наконец-то я понял суть вашего недовольства.
Всего-навсего различие подходов к выбору железа =)
Вот возьмем пример, смотрим на Агену (2Мб L3) и Пропус (без L3). Бааа! Дак Агена медленнее! Значит, 2Мб кэша только мешают!
Почему это мешают? Не мешают. Но и изначально более тормозное ядро от проигрыша не спасают.
Самое главное «не так» состоит в том, что ни слова не сказано зачем это все нужно и какие преимущества дает.
А преимущества — это вовсе не «прирост производительности» в десятки раз (ага, 240 кадров/сек вместо 24), а снижение нагрузки на CPU.
По данному пункту убедили, сейчас переформулирую фразу в обзоре.
Хотя стоп.
Вот же, написано:
DirectX Video Acceleration — технология аппаратного ускорения видео. Позволяет практически полностью переложить процесс декодирования видео с центрального процессора на ГП, соответственно заметно его разгрузив.
Эх, сами читаете невнимательно, а в меня помидорами кидаетесь…
Да, полностью с вами согласен… Статья недотягивает до объективной :)

Ещё один большой вопрос — про тестирование — откуда результаты и на сколько они действительно истинны? :)
Я просто хочу сказать, что лучше всего — не создавать ХолиВары — обстрагироваться от результатов. Ибо есть ещё один результат — цена/производительность!
откуда результаты
Ссылки даны.
Про разгон будет следующая часть ;)

Хорошо =)
Вы видимо плохо статью читали, про это сказано.

Ага, опустил пару пунктов, и упустил об DXVA, сорри.
А первую часть не читали вообще =)

Не читал — она утомительная ))
Под бюджетным хламом я понимаю всякие поделия вроде 8400GS

На каждый продукт есть свой покупатель, так что, думаю, не стоит ))
За 80 долларов, к слову, есть много интересных вариантов

Кэпом на пол ставки? ))
А этим вообще дискретная графика противопоказана — хватит обычной интегрированной графики, не говоря уже о таких решениях как AMD 785G например.

Тут множество обстоятельств и факторов, начиная от доступности того или иного железа, заканчивая личными предпочтениями.
Вот когда у вас с 25-30 avg просадки до 10-15 пойдут, тогда и попомните, почему комфорт это 50-60

Это отдельный разговор.
Кэпом на пол ставки? ))
9600GT, HD4730, HD4670…
Не читал — она утомительная ))
Что поделать, первый блин, как говорится…
Но для лучшего понимания моих дальнейших материалов важна.
Интересные диаграммы, только на данных чего они строились? теоретических?
Результаты тестов. Источники указаны. Можете сами сходить, почитать и посравнивать.
Ошибки и некоторые расхождения конечно возможны, но вообще старался не допускать.
Например, следующие видеокарты:

* GeForce 8800GTS/512MB
* GeForce 9800GTX
* GeForce 9800GTX+
* GeForce 250GTS

Различаются по большому счёту только дизайном PCB и частотами ГП (вообще, конечно ещё и ревизией ГП, но это второстепенно), т.е. фактически представляют из себя одно и то же.

А как же энергопотребление? 250 нуждается в меньшем питании, это важный фактор.

Вообще я не вижу смысла в том, чтобы объяснять покупателю, что он хочет не этот товар. Если школьник хочет i7, зачем убеждать его, что ему хватит урезанного пентиума? Лучше купит i7, никто же не проиграет (кроме родителей:)

Если и давать советы, то только тем, кто приходит и просит помощи в выборе.
Кому не нужны советы:
— не читают эту статью
— начинают с пеной рта указывать, что Автор не прав — i7 лучший ф мире!
Разве кто-то указывал с пеной у рта, что i7 лучший в мире?
Я имел в виду, что это все-равно, что прийти покупать cayenne, а менеджер спросит: «вам для чего машина-то? ах, на дачу ездить? так вот вам нива, у нее и проходимость лучше и вообще вам больше подоходит».
А как же энергопотребление? 250 нуждается в меньшем питании, это важный фактор
Фактор несомненно важный, но в этой части материала упор делался на производительность.
Тогда можно сказать, что процессоры Core 2 Duo E6320 и Core 2 Duo X6800 EE отличались только частотами. Ну и по цене в 7 раз. Всего-то! Кто хочет можно поискать аналог среди Core i7. Тоже топ от начальной модели отличается где-то на треть по частоте, а в цене раз в 5-7.
Хорошо, что улавливаете суть.
Ведь оно так и есть — отличия между C2D E6320 и X6800, например, действительно только в частоте и степпинге ядра. Даже все второстепенные параметры и наборы инструкций совпадают =)
Таков маркетинг.
вставлю-ка я тоже свои 5 копеек. Я изучал данную проблему. Дело в том, что на 8800 не было разделения частот в 3D и 2D. А на 250GTS есть — то есть в играх 3, а на рабочем столе 2D. Это и влечёт за собой меньшее энергопотребление.
Может быть. Однако, на 8800GTS 512 очень эффективная тихая стоковая система охлаждения. А 250GTS каждый производитель делает по-своему. На самом деле, сейчас интересная ситуация: игры делаются под приставки, а только потом портируются на PC. И получается, что уже три года достаточно видеокарты класса 8800 для игр в разрешении 1280*1024, даже со включенным сглаживанием и анизотропной фильтрацией.
Если игра портируется «правильно», то графика в PC-версии несколько улучшается.
Плюс то же сглаживание (насколько мне известно, на консолях оно не применяется — поправьте, если ошибасюь) кушает прилично.
1280х1024 — далеко не самое большое разрешение. Популярность широкоэкранников с 1680х1050 всё растёт, да и к HD мониторам народ тянется.
Ну и есть изначально PC игры.
С другой стороны — разработчики порой страдают излишней криворукостью, из-за чего игра может требовать больше, чем «надо бы» (если сравнивать с возможностями «эталонных» движков, таких как Source или Unreal Engine, например).
Но 250GTS ведь имеет какой-то референс? Полюбому nVidia определила какой- то стоковый кулер для него, а производители просто креативничают. Я уверен в том, что имея 2 одинаковых кулера можно сделать так, чтобы они одинаково охлаждали чип и одинаково шумели на 8800 и 250GTS.
К сожалению, система охлаждения определяется не только кулером. Здесь нужно учитывать и расположение элементов на плате, размер и положение радиаторов, идущий воздушный поток и т.д.
Купите себе более мощный компьютер, чтобы быстрее перезагружаться.)
Хорошо.
Очень хорошо вы пишете и понятно.
Много для себя прояснил.
Спасибо.
9600GT, HD4730, HD4670…</blockquote
Блин, ты видимо не понял, что я той фразой хотел сказать, что это очевидно ))
Результаты тестов. Источники указаны.

Из источников, импонируют оверы, ixbt и ф-центр, а вот thg в последнее время достаточно много фейлит. Вобще, лично по-моему, англоязычные ресурсы «железной» направленности более достоверны, оперативны, например теже guru of 3D, first review, anandtech, bit-tech, xtremesystems
С THG, если что, брались результаты только по CUDA. Ибо внятные обзоры были найдены только там и на хоботе в количестве буквально пары штук.

По методике тестирования тоже нравится хобот, но они обладают одной нехорошей особенностью — сравнивать железки только в пределах своего ценового сегмента. Приходится делать выборку из разных тестов, корректировки — вон, выше меня ругают очень за такую деятельность.
А оверы не стесняются сталкивать бюджетные железки разных классов, в том числе в разгоне. Да и в последнее время качество их материалов сильно возросло, период провальных статей закончился, я бы сказал.
за ctrl+c&ctrl+v автора надо было убивать еще в детстве, чтобы сейчас не читать такой длинной ерунды.
Копипасты процентов 5 от силы наберётся.
Если бы статья писалась по методы ctrl+c&ctrl+v — вам бы на её чтение не один час понадобился =)
классно, спасибо, ото я уже стал теряться в современных железках! прям как свежего воздуха вдохнул :)
UFO just landed and posted this here
Постараюсь что-нибудь эдакое найти для следующих частей =)
Капитально ) Еще не читал, но беглый осмотр показал, что есть интересное ) Занес в букмарки, надеюсь завтра зачитаться
Следует помнить, что данная статья рассчитана на новичков, которые в вопросе не разбираются.
Поэтому оценка: статья хорошая.
Много спорных моментов, но это можно простить, учитывая объем статьи.
Также хотелось бы напомнить, что компьютер — это не только системный блок, но и как минимум монитор.
А вот что не понравилось — сложилось ложное впечатление от прочтение статьи в том, что продукция АМД сильно проигрывает Интелу в производительности (а статья для новичков, поэтому это не есть хорошо).
Следует помнить, что данная статья рассчитана на новичков, которые в вопросе не разбираются.
Ну не на совсем новичков, но в целом да. Об этом я ещё в первой части писал: гуру-железячники интересную информацию тут вряд ли обнаружат.
Много спорных моментов
Куда же без них в общеобзорной статье.
Нельзя из >10 материалов сделать 1 так, чтобы спорных моментов не было вообще =)
компьютер — это не только системный блок, но и как минимум монитор
Вот не знаю, буду ли писать про периферию…
Но если и буду, то ближе к концу.
А вот что не понравилось — сложилось ложное впечатление от прочтение статьи в том, что продукция АМД сильно проигрывает Интелу в производительности
Ничего, следующая статья выровняет баланс =)
Вот не знаю, буду ли писать про периферию…
Но если и буду, то ближе к концу.

Статья называется «Компьютер вашей мечты.», поэтому как минимум мониторы нужны. Если бы было «Системный блок вашей мечты.», то данного замечания и не было бы ;)

Параметров у мониторов не так много (Соотношение сторон/Диагональ/Разрешение/Тип матрицы), так что тут, думаю, больших проблем возникнуть не должно.
Тем более, что данные параметры успешно сводятся к 2м: Диагональ/Тип матрицы. Разрешение зачастую по диагонали идет (и по соотношению сторон).
А вот по связи соотношения сторон с диагональю и реальными размерами экрана можно посмотреть здесь: brusidom.ru/mon/size.php
UFO just landed and posted this here
Зачастую, для конечного пользователя абсолютно все равно, какие там кривые.
Конечно, если дело не касается людей, занимающимися работой с цветом.
А вот про цветовой охват надо упомянуть (а он всего 2х видов: расширенный и стандартный).
UFO just landed and posted this here
Вот потому и не хочу писать. Подробный разбор слишком углубленным получится, а поверхностный скатится к «выбирать по вкусу».
Подумаю ещё над этим вопросом…
Новички, не разбирающиеся в вопросе, закроют статью на первой диаграмме, и пойдут советоваться с соседом, «лучче Ынвидеа али Жыфорс?».
Статья, все ж, скорее для середнячка, знающего основы.
Именно поэтому я и остановил в свое время выбон на макбуке. Я не вдавался в подробности, что там напихано, и как оно работает.
Ибо разобраться во всем вышеописаном и прийти к какому-либо логическому заключению с нахождением золотой середины, мне кажется не реально.
А тут склько денег накопил, то и взял. :-)
Конечно, данный метод имеет право на жизнь, но всегда можно кого-нибудь попросить собрать системник (помочь с выбором ноута), пускай даже платно.
А если учесть что тоже железо «в разницу» стоит в разы дешевле, то я бы задумался о целесообразности такого подхода.
Другое дело, что если нужен именно Мак (скажем, дизайнеру), то тут уж другого подхода нет.
А ноуты это вообще отдельный разговор. Тем более яблочные…
Когда смотрел на виндовые глаза просто разбегались. В таком разнообразии остановиться на чем то просто нереально. В одном нравится одно в другом другое. А вот чтобы и все и сразу ну как то нет. хотя может это чисто я такой извращенец.
несовсем верно, DMI пропускной способностью 2гигаБАЙТА в секунду а не гигабита…
А там и написано — 2Гб/с. Шла бы речь о гигабитах — было бы 2Гбит/с.
вообще принято писать б с маленькой буквы когда речь идет о битах, Б с большой буквы когда о байтах.
Если говорить о стандартах, то вообще ГиБ и МиБ писать нужно. Но это же маразм =)
Статья понравилась, спасибо автору за труд! По-моему, обзорную функцию текст выполняет на ура, мне же она дала массу новых знаний — тут отдельное спасибо за выбранный план и перечисление характеристик с описанием. Немного смущали графики, возможно, действительно стоило давать ссылки на тесты, из которых они сформированы — вопросов было бы меньше.
UFO just landed and posted this here
Вай. Это мне видимо? Отвечаю =)
Нет ближе к 100Гц
TN матрица к примеру имеет время отклика 10 мс (и ниже) итого 1000/10мс = 100 Гц

10мс — это не то. Это время, за которое пиксель меняет цвет. Частота работы интерфейса — 60Гц, это значит что монитор получит 60 кадров за секунду и ни одним кадром больше, соотв все, что выдает видеокарта сверх этих 60 кадров — грубо говоря до лампочки.

По поводу памяти: я рад за людей. Которым хватает 2 гиг. Без малейшего сарказма. Но у меня на работе вот было 2 гига. Я мучался пока мне не поставили еще 2, потому как «крейсерский» объем занятой памяти — 2,6Гб, причем вся она реально нужна. java, блин… И когда запускался gc, понимал весь своп для очистки/дефрагментации памяти — наступал кромешный пипец, я в такие моменты сразу шел пить чай. И основной посыл был в том, что пока памяти хватает — это нормально, но вот если она вдруг кончится…
UFO just landed and posted this here
UFO just landed and posted this here
мои замечания следующие:
графики слишком непонятные. слишком много столбцов непонятно чего. надо усреднить и показывать 5-9 цифр. вы же изучали психологию?
далее. откуда вы взяли все эти цифры сравнения производительности процессоров? это все вилами по воде писано.
следующее: откройте диспетчер задач и посмотри в его строку состояния. там ясно написано сколько именно процессов у вас запущено. пока это число явно больше 4 (по количеству ядер). и пока оно больше увеличение количества ядер ИМЕЕТ СМЫСЛ
и напоследок. опера тормозит (со 150 вкладками) даже на квадрокорэ с 8 гб оперативной памяти: потому что сделана хуёво. вот так вот :(
UFO just landed and posted this here
привычка у меня такая — открывать много вкладок
причем я отключал даже яваскрипт, флеш и анимацию. все равно тормозит. и кстати анимация при этом в опере у меня не остановилась.
UFO just landed and posted this here
в данную секунду — 67 штук…
кстати чтобы легче было ориентироваться их можно в несколько рядов располагать
Для негромадных мониторов не катит
Veider, искренне поздравляю с отличной статьей. Гляди сколько спора родилось )))
Очень приятный стиль написания, много полезной информации.
Не обращая внимание на отрицательные отзывы, эта статья по своему назначению полностью выполяет свою роль.

Удачи в написании следующих частей. Эту добавляю в избранное… надеюсь следующие тоже попадут туда)
Спасибо! Узнал кое-что новое и закрепил старое :)
Большое спасибо. Держите 50ый плюс в статью :)
Видеокарта НЕ используется как ускоритель в процессе обработки 2D-графики;

Спасибо посмеялся.
"
Для чего не нужна видеокарта:

* Видеокарта НЕ используется как ускоритель в процессе обработки 2D-графики;
* Видеокарта НЕ используется как ускоритель в процессе воспроизведения видео.
"
Чем подтверждается такой вывод?

А что там ускорять, в 2d режиме видеокарточка занимается просто отображением фактически растра.

Насчет второго утверждения — дочитайте до DXVA (DirectX Video Acceleration), вот там второе утверждение и опровержено.

Однако в статье мне не нравится пару аспектов, вот хотя-бы из-за таких вот противоречивостей.
ИМХО куда лучше было использовать сноски по тексту (href=#...)
UFO just landed and posted this here
И чем же это лучше на практике?
UFO just landed and posted this here
Ну, вот вам пример: интегрированная графика AMD в чипсетах 7 серии может иметь собственную память. Кто-то ставит её на свои материнские платы, кто-то игнорирует такую возможность. Опять же можно включать и выключать, если хочется:
www.thg.ru/mainboard/amd_790gx_side-port/images/sandra_memory_float.png
www.thg.ru/mainboard/amd_790gx_side-port/images/sandra_memory_int.png
Да блин, опять коммент отправился раньше времени.
Вообщем суть: отклонения 3-4% даже в синтетике, что уж говорить о реальных приложениях.
Раньше была такая проблема, когда установка дискретного видео в разы повышала работоспособность всего компьютера в целом.
Но в современных компьютерах данной проблемы нет (или она намного слабее выражена, ведь пропускная способность шины поднялась в разы).
Статья ИМО попахивает заказной:

AMD обливают как и ATI (которая тоже AMD).

Вы, случайно, не в Intel || nVidia работаете?
Зря вы так, никого я не обливал =)
но постарались, ой постарались.
Я бы уточнил в статье что нехватка кеш-памяти у процессора как в случае и с нехваткой оперативной памяти существенно может дать просадку производительности. В производстве процессора одним из основных моментов это производство кеш памяти, она занимает до 80% места на кристале. Для изготовления бюджетных моделей просто урезают кеш и парочку технологий вроде sse и виртуализации. Вспомним к примеру популярный Celeron (Willamette) который был обрезком Pentium4 где кеш обрезали с 256кб до 128кб (привет моему старому компу с селером 1.7ггц) даже у стареньких pentium 3 было 256-512кб памяти, этот селерон был по производительности весьма неудачный, но хороший маркетинг и цена (тогда мало кто знал разницу pentium от celeron) сделали проц хитом. Как вспомню какой он был задумчивый в некоторых местах. Выходит что для процессоров NetBirst нужно было для реализации производительности около 512кб кеша 2 уровня. Для современных 65-45нм процессоров 2мб (думаю это связано с количеством нововведений и усовершенствованным конвеером).
Я бы уточнил в статье что нехватка кеш-памяти у процессора как в случае и с нехваткой оперативной памяти существенно может дать просадку производительности.
о_О
Всё сказано, ещё и график приложен.
Ой да, извиняюсь, просто не сразу обратил внимание что на графике есть сравнения меньше 2 мегабайт кеша, там непонятно как-то упорядочено
Спасибо за статью.
По железу есть такой мучающий давно вопрос: где почитать грамотный обзор, сравнение, тесты процессоров (или архитектур, точно сам не знаю) ноутбуков. Встал вопрос покупки нового — но огромное количество разных решений делают процесс выбора тяжелым.
Поддерживаю вопрос. Грамотных обзоров ноутбуков практически не нашёл на днях.
С ноутами сложнее. Слишком уж велико их количество.
Качественные обзоры есть на тех же ixbt и fcenter, но их там мало.
Точно скажу где — nix.ru (не реклама, ну может так, немного). Там выбираешь железку и справа есть тесты, есть сравнения в виде диаграммы в этой же ценовой категории и список тестов с соотношением цена/производительность. В остальных тестах нет конкретных цен а там может тут же заказать по вполне ясной цене.
По ноутбукам там тоже есть, может без лишних комментариев, но картина вобщем достаточно ясная.
Ох… Только сейчас понял, что забыл упомянуть о конфигурациях с несколькими видеокартами.
Даже не знаю, как быть… Править эту — как-то поздно уже получается.
Твайумать, отправился коммент...

Так вот, о несскольких видеокартах разговор придётся отложить либо до следующей статьи, либо вообше до статьи о материнских платах.
Скорее всего второй вариант.
Внешний интерфейс

Здесь выбор зависит исключительно от того, на что вы собираетесь выводить изображение. Интерфейсы DVI и VGA (чаще через переходник DVI-VGA) поддерживают все видеокарты поголовно. Многие имеют поддержку HDMI (чаще опять же через переходник DVI-HDMI). DisplayPort встречается редко, но его и на технике что-то не особо видать =)
Кстати, не стоит расстраиваться, если выбранный девайс начисто лишен поддержки HDMI. Большинство отзывов о попытках использования данного интерфейса по назначению пестрит гневом и бранью. Личный опыт дал ту же картину — замечательное изображение через «в конец устаревший» VGA и ужасно дерьмовое через «новый высокотехнологичный» HDMI. Ну и помимо этого — совершенно жлобские цены на соответствующие кабели.

Я бы не согласился — на мониторах с большой диагональю и высоким разрешением переход с VGA на DVI уже бывает заметен — качество улучшается.
Так же про HDMI — может карточка/кабель/монитор были мягко говоря не очень? У меня полностью противоположная картина — пробовал нескольким знакомым мониторы подключать по HDMI — они остались довольны, дома тоже очень удобно по HDMI цеплять телевизор — сразу и картинка и звук и по одному кабелю идут.
Так же про HDMI — может карточка/кабель/монитор были мягко говоря не очень?
Ради интереса погуглите на тему плохого качества передачи по HDMI.
А что касется «кабель не очень» — мы же вроде о цифровом сигнале говорим — он либо есть, либо его нет, и никаких «не очень».
Насколько же на самом деле важна многоядерность? Или даже не так — где именно важна многоядерность, в каких приложениях?


Когда я первый раз апгрейднулся до многоядерной конфигурации, я очень хорошо это прочувствовал: стало меньше «внезапных подтормаживаний». Это был P4 HT (то есть даже «не по-настоящему» двухъядерник), и если игра желала забить ядро целиком (а она этого желала всегда), это не вызывало драки за ресурсы с системой. Да, фпс (в том числе и играх, более чувствительных к мощности ЦПУ нежели ГПУ) не поднялся, но процесс стал куда комфортнее. Таким образом, если планируется использовать хотя бы одно приложение, имеющее тенденцию упираться в потолок быстродействия ядра ЦПУ, двухъядерная (или ht) система очень облегчит жизнь — подчёркиваю, реальной комфортностью, а не синтетическим ФПС. Другое дело, што «совсем-совсем-одноядерный» процессор сейчас уже трудно найти, но для статьи, претендующей на разъяснение основ чайникам, такая информация полезна.

Когда же действительно может понадобиться объём памяти, превышающий рядовые 3-4Гб?


О, с последней тенденцией, активно педалируемой гуглом, обычный сёрфинг в самом быстром и самом бесплатном браузере оборачивается поистине раблезианскими аппетитами к памяти. У меня хром с 10-15 (редко больше) закладками после суток-других-третьих работы стабильно занимает гиг-полтора, иногда до двух. А я вовсе не перебарщиваю с его плагинами.

Да, могу подсказать ещё один кейс «играть в крайзис, рипать диск, а попутно ещё и архивировать» — игра в старый добрый эверквест2 (эта игра до сих пор очень требовательна именно к ЦПУ, великое множество визуальщины как было переложено годы назад с видяхи на проц, так и осталось), одновременный анализ логов весьма требовательным к цпу и памяти парсером, открытым на соседнем экране — да пусть даже и свёрнутом хроме (свопить его — тоже не самый удобный вариант)… Ну и по мелочи: голосовой чат, мессенджеры, скайп… Некоторая избыточная мощность позволяет не заморачиваться с «расчисткой».

Видеокарта НЕ используется как ускоритель в процессе обработки 2D-графики;


Расскажите это Aero висты/семёрки и аналогичным фишкам КДЕ4. Расскажите это любой программе типа 3dmax, использующей видеоускоритель для визуализации при редактировании. Это доступное рядовому пользователю удобство.

Видеокарта НЕ используется как ускоритель в процессе воспроизведения видео.


DXVA и её невиндовс-аналоги используются практически всеми видеоплеерами. Прямо «из коробки». Говорить «НЕ используется» — всё равно што повторять фразу из Фигурнова образца девяносто бородатого года про интерфейсы, ориентированные на такой малоперспективный девайс как мышь: когда-то было если не верно, то хотя бы спорно, но сегодня — уже просто неверно. Это, повторюсь, стандартное поведение «из коробки».
Возврат к этой теме через полстатьи — стратегический недочёт, а не отмазка. Да и возврат, мягко говоря, не блещет верностью информации.

> Личный опыт дал ту же картину — замечательное изображение через «в конец устаревший» VGA и ужасно дерьмовое через «новый высокотехнологичный» HDMI.

Разверните, пожалуйста, поподробнее этот опыт. В комментариях. Мне кажется, у вас покопалась какая-то серьёзная ошибка в методологии.

Ну и помимо этого — совершенно жлобские цены на соответствующие кабели.


Странно, но hdmi и dvi кабели в радиомагазине — совершенно рядовой товар с рядовыми ценами. Да, разумеется, если брать кабели в магазине бытовой техники с ценниками вида «х9990р» — ну так (если не поверите на слово) я заморочусь и отыщу статью про соединительные аудиокабели за полтора миллиона рублей. Трёхметровые. От настоящих адептов тёплого лампового звука. А HDMI/DVI — ширпотреб.

Да, очень зря не дана информация о том, што HDMI и DVI — суть один и тот же разъём, различающийся только расположением пинов, вплоть до того, што многие видеокарты предполагают вывод HD-звука на DVI-разъём с последующим подключением через сторублёвый DVI-HDMI переходник (или сразу кабель, как у меня) к телевизору или ресиверу, естественно, без ухудшения качества (я говорю о пропускной способности, которая начинает играть роль на расстояниях выше 15 метров). А вот DisplayPort — немного другая история, требует переходника немного подороже и поэкзотичнее, и не поддерживает HDCP (што, впрочем, актуально только для воспроизведения лицензионных BR и HDDVD; ну и, возможно, какой-нибудь телевизор, не разобравшись, ухудшит разрешение и не даст поиграть в любимую игрушку на большом экране)

Ещё раз, HDMI и «цифровой DVI» — это одно и то же. Нельзя говорить «не все видеокарты поддерживают HDMI» — это актуально только для тех видях, которые кроме аналогового сигнала (VGA и DVI/CGA через переходник) ничего не выдают. А таковых даже в интегрированных решениях в сверхбюджетных офисных решениях днём с огнём не сыскать: ведь 1280*1024 уже давно «абсолютный офисный минимум», и уже на этом разрешении можно говорить об устойчивом превосходстве цифрового сигнала над аналоговым.

Так что, если хочется подключать к компьютеру 3 и более монитора


Это вообще экзотика, только-только появившаяся на рынке (ATI 5xxx и будущая мифическая ферми). Практически все присутствующие на рынке видеоадаптеры подразумевают одновременную работу двух устройств вывода.

Ну и в общем — «вопли нвидия-фанбой-школоты-зелёной» не красят статью, если вы сможете опознать этот камень.
но для статьи, претендующей на разъяснение основ чайникам
Не чайникам.
Расскажите это Aero висты/семёрки и аналогичным фишкам КДЕ4.
Это вы фразу не так поняли. Я имел в виду обработку 2D-изображений.
3dmax
А это уже 3D.
DXVA и её невиндовс-аналоги используются практически всеми видеоплеерами. Прямо «из коробки».
Перечислите, например, 10 видеоплееров, поддерживающих DVXA «из коробки».
Возврат к этой теме через полстатьи — стратегический недочёт, а не отмазка.
А где вы увидели «отмазки»?
Разверните, пожалуйста, поподробнее этот опыт. В комментариях. Мне кажется, у вас покопалась какая-то серьёзная ошибка в методологии.
Предположим, что у меня ошибка. Почему тогда множество форумов пестрит топиками об аналогичной проблеме?
Нельзя говорить «не все видеокарты поддерживают HDMI»
Ну, звук, по крайней мере, точно не все по HDMI умеют выводить.
Ну и в общем — «вопли нвидия-фанбой-школоты-зелёной» не красят статью, если вы сможете опознать этот камень.
Эээ ??!!?
Итак, если средний FPS находится на уровне 50-60 и выше, в пике нагрузки не опускается ниже 25-30, а различные лаги/подергивания/подвисания отсутствуют — только тогда можно объективно говорить об отсутствии тормозов при текущем разрешении и настройках качества.


Я бы добавил ещё рассуждение о прогеймерских 100 фпс: в том сегменте вполне чувствуется разница между «среднее 60-70, провалы до 25 по тестам» и «среднее 80-100, провалы до 50 по тестам». Очень многое там решают миллисекунды с прицеливанием на резких поворотах: фпс проседает значительно, отзывчивость системы падает на очень короткий (для теста), но очень важный (для игрока) промежуток времени. Да, написано про «различные лаги/подергивания/подвисания», но в реальности, когда нет возможности пощупать и прощупать всё железо, приходится ориентироваться на опубликованные тесты — следовательно, такую «отрицательную скидку» надо учитывать.
Статья не для прогеймеров =)
верно, но для выбора своей методологии надо понимать и такие вещи — это куда проще и полезнее, чем ворох информации по степпингам и объёму разнообразного кэша.
О важности высоких FPS для прогеймеров я в курсе.
Писать об этом не стал по вышеуказанной причине.
Многие, кстати, вообще считают что «30FPS достаточно».
это куда проще и полезнее, чем ворох информации по степпингам и объёму разнообразного кэша
А это вы зря.
Боюсь, эта ваша уверенность — сродни «информированности» о запредельных ценах на HDMI шнуры и проблемы ATI.

Кстати, об опыте «качество HDMI хуже VGA» всё-таки расскажите.
Боюсь, эта ваша уверенность
Уверенность в чем именно?
В том, что знание подробных характеристик важно?
Вы пойдете в магазин и купите процессор за 6 тысяч. И материнскую плату к нему за 4. А я пойду и куплю за 2 и 2 соответственно. И после некоторых манипуляций получу ту же производительность, что и у вас.
Вот вам наглядная польза.
Кстати, об опыте «качество HDMI хуже VGA» всё-таки расскажите.
Опыт как опыт.
Жил был 42" жк ящик самсунг и комп с 785G в качестве чипсета (а соответственно Radeon HD4200 в качестве видеокарты). Соединено это дело было обычным VGA кабелем и давало отличную 1080p картинку. И всё бы так и было, пока владельцу не подкинули HDMI кабель.
Стремясь к высоким технологиям, он выдернул старый шнур и соединил девайсы новым.
При попытке выставить родное для ящика разрешение 1920х1080, изображение почему-то ужалось по высоте и ширине, занимая теперь не всё пространство экрана, было совсем нечётким, да и с цветопередачей что-то не так оказалось. После ковыряний в настройках ящика и драйверов, нескольких перезагрузок, а так же прочих плясок с бубном, решено было вернуть на место старый добрый VGA кабель. С ним же вернулась и замечательная чёткая картинка.
Вы пойдете в магазин и купите процессор за 6 тысяч. И материнскую плату к нему за 4. А я пойду и куплю за 2 и 2 соответственно. И после некоторых манипуляций получу ту же производительность, что и у вас.


В реальности и на самом деле же будет несколько по-другому — вы купите процессор за 2 и материнскую плату за 8 тысяч, после чего не получите и трети производительности моей системы за 3+3.

Жил был 42" жк ящик самсунг и комп с 785G в качестве чипсета (а соответственно Radeon HD4200 в качестве видеокарты).


Модель ящика можно?

При попытке выставить родное для ящика разрешение 1920х1080, изображение почему-то ужалось по высоте и ширине, занимая теперь не всё пространство экрана, было совсем нечётким, да и с цветопередачей что-то не так оказалось.


По описанию очень похоже на HDCPшный выверт телевизора: встретив сигнал от несертифицированной цепочки (например, не распознав таковой сертификат у видеокарты), он искусственно занизил качество. На выход подавалось видео или просто десктоп операционки? Никаких дополнительных надписей телевизор не выводил? По стандарту обязан был ругнуться на весь экран.

По DVI в это же гнездо што-нть (помимо этого телевизора) пытались подключить?
В реальности и на самом деле же будет несколько по-другому — вы купите процессор за 2 и материнскую плату за 8 тысяч, после чего не получите и трети производительности моей системы за 3+3.
Почему вы так думаете?
Можно перейти к более конкретным примерам.
«Типовой набор» для платформы Core 2 сегодня это C2D E8500 и мать на P45, пусть будет ASUS P5Q. Получается грубо 6+3к.
Я же беру например Gigabyte EP41-UD3L и Pentium E5200. Грубо 2+2к. Процессор после этого разгоняется до частот уровня 3.5-4ГГц. Более высокая частота позволяет перекрыть отставание по объёму кэш-памяти (вообще, более подробно об этом будет в моей следующей статье).
Итого я получил в целом то же самое, но на 5к дешевле.
Потому что изначально знал отличия E5200 от E8500 и их влияние на производительность, а также был знаком с тестами младших материнских плат на P31/P41.
А вы говорите, что пользы от этого нет.
Модель ящика можно?
Модель, к сожалению, не помню.
По DVI в это же гнездо што-нть (помимо этого телевизора) пытались подключить?
HDMI распаян отдельным гнездом.
По DVI подключался 22" монитор 1680x1050 и отлично работал.
Одновременно HDMI и DVI, кстати, задействовать не удалось. Точнее картинка то была, но клонировалась с DVI порта в том же разрешении…
Почему вы так думаете?


Потому што с одной стороны вы не владеете вопросом (о пользе многоядерности, об альтернативах AMD/ATI, о ценах на комплектующие, о видео, о… да о многом), а с другой — слишком много додумываете за меня. Конешно, легко и приятно выдумывать чужие неудачи, но уж очень по-детски выглядит.

А вы говорите, что пользы от этого нет.


Потрудитесь перечитать, я не утверждал такого.

По DVI в это же гнездо што-нть (помимо этого телевизора) пытались подключить?
HDMI распаян отдельным гнездом.
По DVI подключался 22" монитор 1680x1050 и отлично работал.
Одновременно HDMI и DVI, кстати, задействовать не удалось. Точнее картинка то была, но клонировалась с DVI порта в том же разрешении…

Давайте тогда уж с моделями — видео встроено в материнку? Тут всё ещё может быть по-разному: в DVI монитор мог быть подключён по аналогу. И, кстати, по дефолту в мультимониторной системе винда клонирует рабочие столы (и это правильно), а следовательно, пытается установить одинаковое разрешение.
Потому што с одной стороны вы не владеете вопросом (о пользе многоядерности, об альтернативах AMD/ATI, о ценах на комплектующие, о видео, о… да о многом)
Вопросом я владею.
Почему вам кажется обратное — мне непонятно.
Потрудитесь перечитать, я не утверждал такого.
это куда проще и полезнее, чем ворох информации по степпингам и объёму разнообразного кэша
Или вы своей фразой хотели сказать что-то другое?
HDMI и DVI
Наберите всё-таки в гугле «HDMI плохое качество» и почитайте содержимое нескольких первых ссылок.
Вопросом я владею.
Почему вам кажется обратное — мне непонятно.


К сожалению, вы не видите своих ошибок в фактологии, сколько на них не указывай.

это куда проще и полезнее, чем ворох информации по степпингам и объёму разнообразного кэша
Или вы своей фразой хотели сказать что-то другое?


Ровно то, што сказал: это полезнее и проще для среднего покупателя.

HDMI и DVI
Наберите всё-таки в гугле «HDMI плохое качество» и почитайте содержимое нескольких первых ссылок.


Молодой человек, я это делал (сюрприз, HD-видео находится в зоне моих интересов не первый год). И не видел ни одного случая, который бы не укладывался в вашу («непонятно што непонятно куда подключили, ничего не получилось, но виноват HDMI!») схему.

Позволю себе процитировать:
Большинство отзывов о попытках использования данного интерфейса по назначению пестрит гневом и бранью. Личный опыт дал ту же картину — замечательное изображение через «в конец устаревший» VGA и ужасно дерьмовое через «новый высокотехнологичный» HDMI. Ну и помимо этого — совершенно жлобские цены на соответствующие кабели.


Если вы не знаете, што такое HDMI, сколько стоят кабели, куда его надо подключать — не пишите ерунды. Когда опишете подробно свой опыт — помогу найти ошибку. Раз уж претендуете на обзорную статью широкого профиля и владение всеми упомянутыми темами.

А то включить hdmi-кабелем dvi-a разъём, в принципе, можно… И даже будет «работать» 1-)
Когда опишете подробно свой опыт — помогу найти ошибку.
Как-нибудь обойдусь без ваших советов.
Раз уж претендуете на обзорную статью широкого профиля и владение всеми упомянутыми темами.
Моя статья опирается на результаты тестов известных тематических ресурсов, ссылки на которые приведены выше.
Материалы подобного плана я изучаю в довольно больших количествах вот последние несколько лет, помимо этого посещая различные форумы и конференции. Кое что удаётся проверить и на собственом опыте.
Некоторые противоречивые моменты, конечно, возможны, но «с потолка» тут не берутся ни цифры, ни выводы.
Если что-то не нравится в моих рассуждениях и рекомендациях — можете написать свою статью (или цикл). С шахматами и дамами. Или просто пройти мимо.
На этом дискуссию предлагаю завершить.
понимаю. чужой неудачный опыт придумывать куда удобнее.
Да нет, не придумывать. Забудьте уже это слово.
Sign up to leave a comment.

Articles