Как стать автором
Обновить

Сказ о Battlefield 1 в Full HD на встроенной в процессор графике и сборке консоли для «нетленок»

Время на прочтение 5 мин
Количество просмотров 26K
Всего голосов 15: ↑12 и ↓3 +9
Комментарии 24

Комментарии 24

Было бы прикольно, если бы встроенную графику можно было штатными средствами задействовать на настольном ПК в помощь основной видеокарте.
Помнится, раньше было ПО под названием Virtu MVP (или как-то так), которое позволяло объединять мощности разных GPU для одного приложения.
На деле всё оказалось не так хорошо, как обещали, нестабильно, но сама идея вполне хорошая.
Про DirectX 12 я в курсе, в нём такое можно. Но 10-ка мне ну совсем не понравилась, а кроме того есть и другие API.

А если нельзя объединить мощности двух карт в рамках одного приложения, то хотя бы использовать их для разных задач.
Например, встроенная графика рисует рабочий стол (монитор подключён во встроенную), а тяжёлые приложения работают на выделенной GPU. Ну, т.е. как на ноутбуках. Может показаться, что это странное желание, но ему есть применение.
Я пробовал на своём Radeon'е гонять OpenCL рендер 3D сцен (правда в последствии это стало не актуально, но суть не в этом), при этом рабочий стол начинал лагать очень заметно.
А так было бы вполне удобно: для рабочего стола хватит и встройки, а для серьёзных задач использовать мощную карту.
А я пробовал на 6770 на встройке гонять OpenCL. Лагать начинало вообще всё. А смысл — смутный…

Если не секрет, чем именно не понравилась 10? Ну кроме очевидных слежки и обновлений. Во всём остальном она более-менее похожа на 7, как на мой взгляд.

Обновлениями и не понравилась, а ещё не понравилась внешним видом. Плоскота в реализации от MS ужасна.
Видимо, вам надо просто привыкнуть. Точно так же, как с очередным редизайном вконтакте :)
Вы говорите о гетерогенном аналоге SLI. Хочу напомнить, что это не работает (нормально) даже в рамках одного произодителя. Например, если даже вы играете в игру, которая умеет Nvidia SLI, то сам SLI работает только с видеокартами одного поколения и одной модели.
То есть 980 с 1070 объединить нельзя, 1070 с 1080 объединить нельзя, 1070 с 970 — нельзя, только 1070 с 1070. Единственное, что доступно по гетерогенности, это то, что видеокарты одной модели могут быть с разным объёмом памяти.
Но и это не всё. Регулярные обновления драйверов будут ломать SLI или делать его совершенно неиспользуемым, SLI может развалиться в процессе игры и лечится это, в лучшем случае только перезагрузкой, а в большинстве — полной деинсталяцией всех видеодрайверов и повторной «чистой» установкой.
А вы хотите объединить видеокарты двух разных производителей. (И да, вижу, что вы написали, что знаете про DX12. Думаю, эта функциональность потребует очень много усилий от разработчиков)
AMD в своих картах и APU (или игроделы) тоже так и не смогли запилить нормальное взаимодействие. Взять для примера ноуты: в половине игр от DualGraphics толку никакого. R7 250 тоже не очень хорошо дружит с каким-нибудь A10-7850K, удвоения FPS нет и близко, даже в 1,5 раза поднять — это уже очень хорошо, много где и того нет.
Насколько я помню SLI в материнках — ускорение от 2х одинаковых видеокарт редко достигало 40%.
В итоге получали не 200%, а от силы 120-140%… от скорости одной видеокарты…
Здесь должно быть иначе?
Если да и хотя в 10% случаев они добиваются 190%+ то уже неплохо.
Ну так и я о том же. Маркетологи рисуют красивые циферки в бенчмарках, а на деле технология трудноприменимая на практике и сырая. Опять же, если вспоминать ноуты — в некоторых играх прирост бывал и отрицательный, если версия дров неудачная.
НЛО прилетело и опубликовало эту надпись здесь
В чем преимущества размещения GPU на одной подложке с CPU? Почему не размещают ее как раньше — на матплате?
Есть подозрение, что дело в охлаждении.Ну и заменив проц на модель поновее — есть вариант получить и более свежую встройку.
Последние годы вообще намечается тенденция к внедрению всех элементов в процессор. В 2004 году АМД перекинули туда контроллер памяти, потом шины PCI-E перекочевали, потом и графика. Для производителей процессоров это — снижение зависимости от других участников рынка, ну и плюс, улучшение охлаждения. Вот уже больше 10 лет среднестатистический универсальный (пригодный для офиса, игр и мультимиедиа, но не очень дорогой) процессор жрет около 60 Вт. А ведь за этот же промежуток техпроцесс уменьшился с 90 до 14 нм.

Производители видеокарт нарастили количество шейдерных процессоров в десятки раз (в 2007 у 9600GT было 48 шейдерных ядер, в 2017 у ее одноклассника 1050 Ti — уже 768). А вот в центральных процессорах массового сегмента так и осталось 2-4 ядра. В 2006 году урезанное ядро Conroe (которое в пнях E2xxx и к2д Е4ххх), созданное по техпроцессу 65 нм, имело площадь около 80 мм2. Сейчас, на нормах 14 нм, оно поместилось бы на участке кристалла 5 мм2.

Даже с учетом того, что с каждым новым поколением число транзисторов в составе вычислительного ядра растет, не будь в составе какого-нибудь Core i5 северного моста и графики — он бы все равно жрал свои 60 Вт, но отводить их пришлось бы через площадь, меньшую в 2 раза (если не больше). А тогда жалобы на «термосопли» под крышкой от оверклокеров, недовольных, что их i7-6700K на 4,5+ ГГц не хочет нормально охлаждаться без скальпирования, показались бы сущей ерундой.
То есть, северный мост и графика выполняют роль радиатора? А что мешало запихнуть вместо них какой нибудь более подходящий для этого материал?
Теплопроводность кристаллического кремния, насколько я помню, составляет около 150 Вт/м. Хотя у чипа меньше (так как это не монокристалл, и ради уменьшения техпроцесса чего там только не добавляют в конструкцию транзистора: и медь, и тантал, и гафний), но все же из подходящих веществ для наращивания теплоотводящей площади — вспоминаются только алюминий, медь, серебро, золото и модификации углерода. А как их «срастить» с кристаллом для увеличения его плотности?

Процессоры делают на дисках из кремния, борются за выход большего числа годных чипов с одного диска. Делать просто большой пустой участок кристалла — это уменьшить в 2-3 раза количество чипов с одного диска, следовательно, поднять себестоимость продукта в 2-3 раза. Гораздо
эффективнее объединить «приятное с полезным»: и повысить количество функциональных модулей на чипе (тем самым сосредоточив в своих руках больше влияния: ведь Nvidia, как чипмейкера логики для материнок, «выгнали» с рынка именно переносом севера и графики в проц), и площадь теплоотвода увеличить.

Не будь актуальной проблема чересчур мелкого кристалла — сейчас бы были в продаже массовые чипы Intel Core i без графики (а не только дофигаядерный Hi-End на сокет 2011-3). Ведь уменьшить площадь кристалла на треть — значит увеличить на треть количество производимых чипов с одной пластины. Вот AMD мастера в этом плане: новые Ryzen 5 вроде как делаются на тех же кристаллах, что Ryzen 7, но в каждом модуле по ядру выключено) Да и раньше они это практиковали. Таким образом и кристалл получается больше, и частичный брак идет в дело, а не в утиль.

Интел в плане такой технической информации гораздо менее разговорчивы… Они даже площадь чипов, создаваемых по нормам 14 нм, не разглашают, поэтому тут копать труднее. Я Скайлейки не скальпировал, но чет есть подозрение, что тот же Intel i5-6402p с графонием HD510 — это тот же i5-6400, разогнанный на 100 Мгц и с отключенной частью блоков в графике (из-за брака или просто так, как когда-то AMD годные Феномы Х4 только ради удовлетворения спроса на быстрые двухъядерники «кастрировали»). То есть, на структурном уровне кристаллы скорее всего идентичны. Вот только ни подтвердить ни опровергнуть это я не могу.
CPU потихоньку начинают чувствовать потолок сверху. Частоты выше 4-5ггц даются с трудом, а наращивать количество ядер в не серверных CPU дело сомнительное (что подтверждают последние архитектуры AMD до Ryzen). Можно было бы и 16-ядерные варианты выпускать, но зачем? То, что хорошо распараллеливается на десктопах переносится на GPU.
Плюс последние годы AMD не могли нормально конкурировать с Intel в средне-высоком ценовом сегменте после того, как у последних получились очень удачные i3/5/7. И в то время как упустил годик на рынке GPU — потерял приличную аудиторию, то на рынке CPU Intel могла себе позволить несколько лет выпускать минорные апдейты: AMD все равно отстает плюс у старых процессоров все хорошо с производительностью.
CPU потихоньку начинают чувствовать потолок сверху.

Да они его как бы всегда чувствовали, и из-за жора он еще ниже был) Правда сейчас, помимо перегрева, ограничителем становится еще и тонкий техпроцесс.

С одной стороны — вроде и жрет теперь чип на 4 ГГц мало. Вот у меня i5-7600 в турбо стабильно 3,9 держит, и даже мелкого боксового кулера ему для этого хватало. А когда то Pentium 4 (Prescott 90 нм) для работы на 3,6-3,8 (уже не помню точно, до скольких разгонял) — охлаждался боксовым, но с радиатором вдвое выше, и вертушку я там модифицировал, чтобы крутилась в районе 5к об/мин при нагреве.

С другой стороны — пням мешал только перегрев (на них под азотом и почти 8 ГГц брали, сохраняя стабильную работу). Новым же мешает не только перегрев, но и помехи в работе транзисторов, «кучкующихся» на кристалле очень плотно. У АМД последние бульдозеры, которые 5 лет делали на почти одном техпроцессе (32/28 нм), под воздухом нормально на 5 ГГц работают, но жрут, как утюг. А вот Райзены даже при достаточном охлаждении эта частота пока недоступна на практике (то есть для работы за компом, а не ради скрина с попугаями), только под азотом.

Можно было бы и 16-ядерные варианты выпускать, но зачем?.

Теоретически, параллелить текущие задачи можно нормально и на 16 ядер.Но это — дополнительная работа, затраты. Сейчас задача немного смахивает на анекдот про «вот научишься плавать -тогда и воду наберем», причем с обеих сторон. Разработчики софта не спешат работать над улучшением параллелизма, так как в массовом сегменте таких чипов нет (AMD с своими FX и Intel с платформой 2011 — не в счет, так как они суммарно всего пару процентов рынка занимают). Intel не спешат выпускать много ядер в массы, потому что софт еще не умеет их нормально использовать, как итог — в играх разогнанный i7-7700K обходит и Райзены, и собратьев на 2011-3 за счет больших частот. А AMD с их пятью процентами как-то всерьез не воспринимают, чтобы под их дофигаядерники лучше оптимизировать. Исключение — консольки, где под АМД таки пилят оптимизацию, и 8 ядер там юзается, но не все, что примениемо на консолях — так же применимо на Windows-ПК (я о методах оптимизации софта).

То, что хорошо распараллеливается на десктопах переносится на GPU
\
Если не ошибаюсь, то GPU сильны только в вычислениях с плавающей запятой. GPU хороши, если есть задача, задействующая параллельные «легкие» потоки вычислений, хорошо масштабируемые для расчетов хоть на 128 ядрах, хоть на 2560.

И в то время как упустил годик на рынке GPU — потерял приличную аудиторию, то на рынке CPU Intel могла себе позволить несколько лет выпускать минорные апдейты: AMD все равно отстает плюс у старых процессоров все хорошо с производительностью.

Все дело в том, что Intel и AMD, как производители ЦП, находятся в очень разных условиях. Видя, что AMD теряет конкурентоспособность, Интел могут себе позволить сбавить темп и получать с мелких улучшений большую прибыль. Как говорится, «без нас не начнут», то есть, все под контролем, а соперник сдает позиции и без особо активного противодействия со стороны Intel.

А вот производители ГП (Nvidia и AMD) по условиям гораздо ближе друг к другу. Обе компании FabLess, поэтому их возможности ограничены возможностями производственных партнеров. Чего бы более эффективного их инженеры не придумали — если техпроцесс завода старый, то придется или много инвестировать в модернизацию партнера, или ждать, и ограничиваться текущими возможностями производства.Много инвестировать не стали ни те ни другие, как итог — 4 года мучили 28 нм, выжимая из него все соки и конкурируя в равных условиях.
НЛО прилетело и опубликовало эту надпись здесь
Покупать крутую память чтобы раскрывалась недовидяха? Сомнительное извращение, лучше простейший GTX *50 купить
Дык, на ноут не купишь.

Я тут недавно разбирал свой ноутбук (Skylake) и нашел в нём два кристалла точь-в-точь как на красной картинке в посте. Это, выходит, графика на отдельном кристалле в мобильном исполнении?

У вас графика ириска? Если да — то это не графика, а буферная память eDRAM

Обычный 6500U.

То PCH (контроллер периферии, он же южный мост).
Зарегистрируйтесь на Хабре , чтобы оставить комментарий