У меня есть 3060 laptop, одна из самых первых версий, с одним HDMI выходом, была куплена у майнера за копейки - тот просто не знал что с ними еще можно делать. И не удивительно, эта версия запускается только при включенной в биосе опции "Above 4G decoding" и выключенном "CSM". При этом для ее работы нужен отредактированный драйвер, куда добавлен ее id, в официальном его нет. Ну и само собой все драйверы теперь с подписью и после редактирования их надо переподписывать (или отключать проверку подписи и прощайте онлайн игры). В остальном карта неплоха, если бы не 6 гигабайт видеопамяти была бы еще лучше, но вроде как сейчас китайцы клепают версии и с 12 гигабайтами.
Да ладно, каких-нибудь 27" хватило бы. Уже представляю рекламу - новая прорывная технология для киберкотлет с нулевым временем отклика и высочайшей герцовкой.
Старфилд, второй спайдермен и ремейк игры 2008 года это поводы объявить 2023 лучшим годом в истории видеоигр? Это тот самый старфилд, который дропнули даже моддеры. То самое продолжение спайдермена, которое выглядит в лучшем случае как DLC. И тот самый ремейк, который вообще непонятно для чего был нужен сам по себе? Серьёзно?
У меня был (и до сих пор есть) Matrox M3D, который PowerVR PCX2. Поддержка Deirect3D у него была максимально отвратительной, зато был офигенный минипорт драйвер OpenGL, который позволял рубиться во все игры сделанные на движке первого\второго квейка, включая Half-Life, а еще в играх на движке Unreal была поддержка нативного API этой карты (вернее была в первом Unreal и можно было перенести в другие игры) с которым она по производительности приближалась к первой вуду.
Про какой именно Rendition Verite вы говорите? У меня есть V2200 - офигительная карточка, никаких проблем с Direct3D и OpenGL, производительность вполне сравнима с Voodoo Graphics, хотя конечно Verite вышла позже. Как по мне, эта карта намного лучше чем та же Riva 128.
С затычкой FX 5200 была совершенно глупая ситуация. Их было две разных и отличались они шириной шины памяти - у нормальной была 128 битная шина, а у огрызка 64 битная. По производительности они отличались очень ощутимо, а вот по названию не отличались вообще никак, все они были просто FX 5200, никаких XT, LE и тому подобных окончаний они изначально не имели. Да, в последствии появились FX 5100, FX 5200 LE которые точно были с 64 битной шиной и Ultra которая точно была со 128 битной шиной. Однако ситуацию это особо не изменило, под названием FX 5200 всё так же попадались оба варианта.
Надо сказать, что "нормальная" версия по уровню производительности была примерно на уровне MX 440 (которую ругали не за производительность а за отсутствие шейдеров в первую очередь), но в отличие от нее позволяла играть в первые игры которые без поддержи шейдеров не запускались, например те же Silent Hill 3 и Halo: Combat Evolved.
У FX 5800 Ultra (да и вообще у всей линейки FX того времени) главной проблемой была не низкая пропускная способность памяти, а крайне медленная работа пиксельных шейдеров второй версии. Для этой серии карт в той же Half-Life 2 опция вторых шейдеров была по умолчанию недоступна (хотя можно было включить принудительно) именно из-за того, что даже у FX 5900 производительность при их включении была хуже чем у самых бюджетных карт конкурента в лице ATI.
Рива 128, конечно, была сильно лучше чем вирдж, но своих косяков у нее тоже хватало. Впомнить тот же аппаратный баг с зазором по краям полигонов который частенько в играх проявлялся. Единственным беспроигрышным вариантом в то время была первая вуду.
Я помню, у меня даже до сих пор где-то диск валяется.
Официально, 11 винда не устанавливается даже на первое поколение Ryzen'ов.
Следующим шагом будут герконовые свитчи, видимо.
Ну да, к счастью бинарники для этого патчить не нужно.
У меня есть 3060 laptop, одна из самых первых версий, с одним HDMI выходом, была куплена у майнера за копейки - тот просто не знал что с ними еще можно делать. И не удивительно, эта версия запускается только при включенной в биосе опции "Above 4G decoding" и выключенном "CSM". При этом для ее работы нужен отредактированный драйвер, куда добавлен ее id, в официальном его нет. Ну и само собой все драйверы теперь с подписью и после редактирования их надо переподписывать (или отключать проверку подписи и прощайте онлайн игры). В остальном карта неплоха, если бы не 6 гигабайт видеопамяти была бы еще лучше, но вроде как сейчас китайцы клепают версии и с 12 гигабайтами.
Совместят оба названия, будет "Тиран".
Мне кажется что даже google translate справился бы с переводом лучше.
Там же Arc Alchemist вместо видеокарты, с чем они собираются конкурировать?
Да ладно, каких-нибудь 27" хватило бы. Уже представляю рекламу - новая прорывная технология для киберкотлет с нулевым временем отклика и высочайшей герцовкой.
А вот у CRT время отклика вообще было 0 мс, например :)
Старфилд, второй спайдермен и ремейк игры 2008 года это поводы объявить 2023 лучшим годом в истории видеоигр? Это тот самый старфилд, который дропнули даже моддеры. То самое продолжение спайдермена, которое выглядит в лучшем случае как DLC. И тот самый ремейк, который вообще непонятно для чего был нужен сам по себе? Серьёзно?
У меня был (и до сих пор есть) Matrox M3D, который PowerVR PCX2. Поддержка Deirect3D у него была максимально отвратительной, зато был офигенный минипорт драйвер OpenGL, который позволял рубиться во все игры сделанные на движке первого\второго квейка, включая Half-Life, а еще в играх на движке Unreal была поддержка нативного API этой карты (вернее была в первом Unreal и можно было перенести в другие игры) с которым она по производительности приближалась к первой вуду.
Про какой именно Rendition Verite вы говорите? У меня есть V2200 - офигительная карточка, никаких проблем с Direct3D и OpenGL, производительность вполне сравнима с Voodoo Graphics, хотя конечно Verite вышла позже. Как по мне, эта карта намного лучше чем та же Riva 128.
Она была чуть измененной версией Geforce 2 MX 400, которой подняли частоты и вместо памяти SDRAM поставили DDR.
С затычкой FX 5200 была совершенно глупая ситуация. Их было две разных и отличались они шириной шины памяти - у нормальной была 128 битная шина, а у огрызка 64 битная. По производительности они отличались очень ощутимо, а вот по названию не отличались вообще никак, все они были просто FX 5200, никаких XT, LE и тому подобных окончаний они изначально не имели. Да, в последствии появились FX 5100, FX 5200 LE которые точно были с 64 битной шиной и Ultra которая точно была со 128 битной шиной. Однако ситуацию это особо не изменило, под названием FX 5200 всё так же попадались оба варианта.
Надо сказать, что "нормальная" версия по уровню производительности была примерно на уровне MX 440 (которую ругали не за производительность а за отсутствие шейдеров в первую очередь), но в отличие от нее позволяла играть в первые игры которые без поддержи шейдеров не запускались, например те же Silent Hill 3 и Halo: Combat Evolved.
Она до первой вуду по производительности не дотягивала вообще никак.
У FX 5800 Ultra (да и вообще у всей линейки FX того времени) главной проблемой была не низкая пропускная способность памяти, а крайне медленная работа пиксельных шейдеров второй версии. Для этой серии карт в той же Half-Life 2 опция вторых шейдеров была по умолчанию недоступна (хотя можно было включить принудительно) именно из-за того, что даже у FX 5900 производительность при их включении была хуже чем у самых бюджетных карт конкурента в лице ATI.
Рива 128, конечно, была сильно лучше чем вирдж, но своих косяков у нее тоже хватало. Впомнить тот же аппаратный баг с зазором по краям полигонов который частенько в играх проявлялся. Единственным беспроигрышным вариантом в то время была первая вуду.
Вотэбаутизм в чистом виде, поразительно.
Ну да, следующий шаг это, видимо, передача через IPoAC.
Это точно? Тестил и на английском, и на русском, особой разницы не заметил. Но я особо и не докапывался.