Pull to refresh

Comments 60

Оии, какие милые костюмчики. А где такой можно достать?)
Как ни крути, но Toshiba смотрится лучше всех.
Ну не знаю, оранжевый lenovo на мой взгляд лучше:)
Тоже за оранжевый Lenovo, но вот «тема сисек» раскрыта не полностью у всей четвёрки.
Нене, однозначно Тошиба. 2-2.
У меня нет. Могу предложить только туфли :)
Мм девушка на хабрее…
Виктория тут уже давно. Советую посмотреть другие её статьи и еще вот эти материалы. Вызывает не «мм», а большое уважение.
Ы данном случае «мм» было как раз уважение и интерес)
Вот если бы они еще и по техпроцессу в 45 нм были выполнены ;).
Можно погуглить zentai и батик, потом купить белый костюм и разукрасить как душе угодно.
На костюмы нанесен рисунок, очень похожий на «изображение начинки процессора» — куча прямоугольников разных цветов. Где бы узнать, как конкретно получаются такие изображения и что там что?
Боюсь вас расстроить, но по ходу дела, тут без раздевания девушки не обойсить ))))
Такой оборот дела не должен расстраивать! :))
Где б нарыть простое и короткое сравнение по разным графическим платформам — по одной/две видеосистемы из нынешнего и пары-тройки предыдущих поколений всех роизводителей? Чтоб вообще понимать масштабы различия между встроенной интеловской графикой, к примеру, и дешевой внешней АМДшной.
У меня, кстати, Fallout NV на Intel HD 3000 делал так же, как на скриншоте третий, около недели или двух, а потом сдался и запустился =)
Вы выиграли :)
А если серьезно, то NV был специально поправлен для Intel GPU -там по умолчанию не определялась поддержка шейдерной модели 2а и 2b (шейдеры длиннее 64 инструкций), а они использовались.
Я так и подумал, что NV обновился, т.к. обновлений драйверов не замечал.
Если ваши видеокарты поддерживают OpenCL, то расскажите тогда какое у вас на видеокартах количество ядер, количество мультипроцессоров, размер варпа, размер общей памяти, число регистров, размеры кэшей, максимальная пропускная способность памяти? Так же жизненно важно знать как работает coalescing при различных паттернах доступа к глобальной памяти.
Это все конечно можно замерить, но для этого нужна сама видеокарта.
Количество EU И параметры памяти указаны в посте-см.картинки. Для остального надо копать документацию, по возможности посмотрю и напишу.
О, теперь вижу. 16 ядер и 25.6Gb/sec.
На счет остального — можете просто дать ссылку на документацию, где есть эта информация.
Вопрос по графике на Cedarview: недавно Ф-Центр сделал один занимательный тест для D2500HN и Intel DN2800MT, в котором 2d-графика на новых атомах явно хромает, по крайней мере при работе с ОС и для VC1.
Меня до крайности прельщает возможность где-то через полгода приобрести нетбук на пассивном охлаждении для легковесных операций, но картинки, показанные в этом тесте как-то очень печалят. Это проблемы развития платформы или ситуация не будет исправлена?
Спасибо за ссылку, этого достаточно.
Хорошо, что отказываетесь; плохо, что придется ждать.
Т.е. по видеокартам на Ivy Bridge уже рассекретили инфу? Ждем обзоры новых процессоров, особенно ультрамобильные интересуют.
Они присутствуют на рынке с конца апреля. Какие уж тут секреты.
Таак, я чего-то напутал?
Но ведь тестов же нету. Во всех относительно недавних обзорах ультрабуков, в которых уже стоит процессор Ivy Bridge сообщается, что, мол, Intel пока запрещает разглашать какие-либо показатели этих процессоров.
Данные, приведенные мной — публичны. Это точно. За все остальное ручаться не могу.
Я приводил картинку и ссылку на тесты на три камента выше.
Да ну ладно, полноте, какие игры? Не дай бог никому чтоб их дети играли в игры на gma 3150 @ atom n450.
… Да да! И на БК-01 и на Спектруме. И на PC386!
Игры бывают разные, однако.
И то, что вы называете, совсем не новые платформы. А, как известно, за время пути собака могла подрасти :)
см. вопрос выше про очередное поколение атомов. какая-то странная собака получилась.
Ну так и дорога длинная, собака успела ощениться и умереть.
Ну сапер понятно, пойдет. Я говорю про 3D игры, коих, согласитесь сейчас преобладающее количество. Так вот, на сабже (gma 3150) играть в 3D игры нельзя. А всего-то оно (gma 3150) полуторогодовалой давности максимум (2010-2011 год).

И вот сейчас смотрю на тесты и диву даюсь. Intel HD 4000 рвет всякие редоны и даже нвидии в пух и прах. Ну да посмотрим что будет в реальности, особенно со всякими шойдерами и прочими физиксами.

Вообще, если будет конкурентноспособно — это хорошо. Возможно когда-нибудь в далеком будущем мы будем поголовно сидеть на видюхах от интела и вспоминать о ATI или Nvidia как сейчас о 3Dfx.
>рвет всякие редоны и даже нвидии в пух и прах
Оно рвёт в пух и прах радеоны двухлетней давности лоу-енд сегмента. Нынешние топ-видеокарты тот Radeon 6620G из теста выше рвут раз в 8 по производительности.
С учётом уродской позиции nvidia по поддержке драйверов — нафиг сдалось.

Поясняю: intel коммитит в ванильное ядро (opensource драйвера), а nvidia пилит своё проприентарное угрёбище, которое ведёт себя в системе как слон в посудной лавке. При этом поддерживать опенсорсный nouveau они отказываются. Читайте по губам: nvidia отказывается поддерживать опенсорсную версию драйвера к своему собственному железу. Которое люди пишут им бесплатно, а от них требуется лишь подсказать со спецификациями.

В отличие от nvidia intel всё делает правильно, за что им плюс в карму.
Я уважаю позицию людей, которые отказывают себе во всём, лишь бы пользоваться опенсорсом, но отказываться от игр\фильмов\работы с 3D и мультимедиа потому что кто-то там что-то куда-то комитит, а кто-то нет, лично я не буду.
Объясняю: вопрос не в том, что они «не коммитят», а в том, что не хотят предоставить документацию тем, кто пишет нормальные драйвера.

Ближайшая претензия к проприентарным драйверам nvidia, например, это кривая поддержка xrand (читай, на ходу нельзя менять конфигурацию многомониторной системы), не поддерживается фреймбуффер для виртуальных консолей. Проприентарные драйвера отстают от ванили, так что всегда есть риск наткнуться на несовместимость нового ядра и драйверов.

(Не говоря уже про «удобство» их оригинальной системы установки, которая даже dkms не пользуется).
Ну, во-первых, прошло всего чуть больше месяца с момента вступления Nvidia в Linux Foundation — вряд ли они могли за столь малый срок вот так взять и начать активно клепать открытые драйвера.

Во-вторых, моё непонимание было по несколько другому поводу. Люди, которым нужна производительная видеокарта для игр\видео\3D-графики не выберут интегрированную интеловскую графику, равно как не выберут Linux (с любыми драйверами). В таких задачах Винда и Мак идут на шаг впереди, а если Linux выбирается вообще для всего и всегда по религиозным целям — тогда придётся как-то жить с «кривой поддержкой xrand» и прочими чудесами.
Вот только не надо про видео, ок? В линуксе с ним ситуация много лучше, чем в виндах (особенно с учётом идиотского парсера RIFF, плохой поддержки кодировок у субтитров и т.д.). Насчёт 3D-графики не знаю, всё, что 3D использует для работы на i3 вполне себе нормально работает.
Вызывает улыбку. Пройдите как пару квестов на вашей линуксовой машинке:
1. Поставьте промышленную видеомонтажку (Avid, Final cut) и сделайте минутный ролик.
2. Поставьте WoT, Diablo III, Crysis, установите настройки на максимум и поиграйте полчаса
3. Поставьте ArchiCAD и поработайте над моделькой в пару миллионов полигонов.

Как успехи?

С какого бодуна они должны предоставлять документацию, если там ноу-хау на ноу-хау сидит? Чтобы конкуренты содрали? Правило, что если и открывают, то старье, которое конкурентам и не интересно. Сделайте нормальную поддержку бинарных дров и будет вам счастье.
Отсутствию xrandr и дебильному инсталлятору, который из системы слаку делает мы обязаны особенностям ядра линукс? Ну-ну.
Вы удивитесь, но на Intel GMA 4500 и Intel HD идет WOW.
Эх. Как там, под windows, нормально все?
А под linux уже год как не могут сделать vsync. Сидишь и смотришь как дурак рвущееся видео.
Мне (для HD2000) помогло добавление следующих строк в /etc/environment
CLUTTER_PAINT=disable-clipped-redraws:disable-culling
CLUTTER_VBLANK=True

И тут я такой и говорю: «А у меня кеды»
www.ixbt.com/cpu/igp-p8-gmahd4000.shtml
«Воодушевленные успехами нового драйвера в профессиональных приложениях, мы настроились и на отсутствие проблем при воспроизведении видео силами GMA HD 3000. Однако надеялись зря — при попытке задействовать аппаратное ускорение на экране все те же артефакты, изредка прерываемые изображением. А вот у GMA HD 4000 никаких проблем нет, что ставит точку в дискуссии, начало которой положила наша статья полугодовой давности. После нее некоторые читатели заявили, что тестирование некорректно, поскольку мы использовали устаревшие версии Media Player Classic Home Cinema и VLC Video Player, так что нечего, дескать, переносить претензии к ним на интегрированную графику Intel. Однако, как видите, проблемы были действительно не в проигрывателях и даже не в драйверах (или не только в драйверах), поскольку новые видеоядра Intel работают «как надо» и в старых программах, а старые этим похвастаться не могут. Всё это в одних и тех же программах, так что уже очевидно, кто виноват.»
Дело не в этом. У меня аппаратное ускорение работает замечательно через vaapi, но вот у драйверов жуткие проблемы с vsync везде, кроме opengl с сурфейсом 16:9 и полной отрисовкой каждого кадра. Это то что я понял самостоятельно, другие подробности не знаю. Я использую kwin с vsync, и картинка рвется пикселей 30-40 сверху, с включенным rc6. Без rc6 — только самая верхняя (ну, или 2) строка. Хотите посмотреть видео 1280x768 — тиринга нет, 1920х1080 — тиринга нет, 720x400 — тиринг есть. В общем, на любом материале, который не ровно 16:9, тиринг есть. Надо будет попробовать пропатчить kwin, чтоб он всегда отрисовывал полностью весь кадр, а не только изменившуюся часть.
Знаю, читал ваши багрепорты. Цитата была ответом на вопрос «Как там, под windows, нормально все?»
Самый главный вопрос: если на этом же железе отключить видеопроцессор, то как изменится производительность/отзывчивость для основного процессора?
На древних встроенных Intel видеокартах отключение видео было благом ибо быстрее графический режим отзывался везде.
Не уверена, что это самый главный ответ, но дела обстоят так: если на системе, где отдельной графики нет, скажем, на ультрабуке, отключить GPU, то производительность поднимется до бесконечности, только воспользоваться этим не выйдет, система просто не заработает :)
Если же отключить GPU на системе с дискретной графикой, т.е. перейти на использование той самой дискретной, то производительность несомненно станет гораздо лучше, CPU свободнее, но батарея долго не протянет.
забыла еще про один важный момент — то, что написано в посте и комментарии выше, относится к производительности графической системы. А помимо нее в Intel HD Graphics есть блок хардверного кодирования/декодирования видео -Quick Sync Video, так что при отключении Intel GPU обработка видео может существенно замедлиться.
Что-то, по ходу, я погорячился когда не пошёл на КРИ! Отличные дифчата на картике :)
Те интел таки утверждает что HD3000 лучше чем gf9400m? А я вот что-то в TF2 не заметил. Проц мощнее а все по прежнему. Странно да.
Sign up to leave a comment.