Pull to refresh

Comments 77

Да уж, очень странные оценки по картам. 3080 на 12Гб памяти отлично живут себе и стоят сейчас отнюдь не космических денег.

Я и к 4060Ti претензий не понимаю. Впервые с 10й серии xx60-е карты вернули в нормальный теплопакет и снизили неуемный жор энергии чуть ли не в 2 раза. При этом не потеряв ничего и даже немного улучшив производительность относительно предыдущей серии на уровень выше.

Потому что урезанная шина PCI-e на 8 линий да ещё и урезанная шина памяти, мало VRAM (да 8гб в 2023 это уже мало для FHD, что уж говорить про 2к+), разница с предыдущим поколением по производительности не впечатляет.

4060 - это скорее про энергоэффективность, чем производительность. Зайдет тем, кому не хочется иметь дома здоровенный шумящий ящик. Цена как бы намекает.

У меня 3060 Ti от MSI. По сравнению с ноутбуком, который у меня раньше был, этом бесшумная коробочка.

Ну так речь про 4060ti.
Если 4060 еще можно простить 8гб, у нее и ценик упал относительно 3060, и производителность чуть выше, то 4060ti - полная помойка, с 8гб, производительностью иногда уступающей 3060ti, и это за тот же прайс в следующем поколении.
Это провал и дно дна.

Это провал и дно дна.

200W(3060Ti) vs 160W(4060Ti), при этом ещё увеличилась производительность. Как по мне, так провалом это сложно назвать. Для тех, кто хочет небольшую машинку, на которой можно что-то иногда запускать.

40W это небольшая разница + как вам уже сказали разница в производительности оставляет желать лучшего. Мало того 4060Ti это не тот класс видеокарт "что-то иногда запускать"

40W это небольшая разница + как вам уже сказали разница в производительности оставляет желать лучшего

Зашел на ютуб, посмотрел бенчмарки. Чуть быстрее 3060 Ti. По стоимости примерно те же $350 - $400.

Мало того 4060Ti это не тот класс видеокарт "что-то иногда запускать"

С 10 серии не следил, но было так xx50 - затычка, xx60 - бюджетный гейминг, xx70 - можно было играть в "заветные 60fps", xx80 - максимальные настройки. На xx90 можно уже вроде как комфортно с лучами играть.

Помню, на 1060 6gb играл в ведьмака 42-60 fps на средне-высоких настройках в 1080p. Не 1070-80, конечно, зато не грелась и не было слышно почти никогда. Оно и сейчас так, как я посмотрю.

Чуть быстрее 3060 Ti. По стоимости примерно те же $350 - $400.

Так именно! Чуть быстрее, но стоит также. В чем смысл её брать если NVidia ничего не дали, а только забрали? (шину PCI-e, шину памяти и т.д.)

С 10 серии не следил, но было так...

Вот потом все и поменялось. 20-я линейка считается лучшей, а 30-я на фоне 40-й не такой уж и плохой.

xx50Ti ~ xx60, xx60Ti ~ xx70 и т.д. так что 4060Ti не подходит под определение "иногда что-то запускать"

 при этом ещё увеличилась производительность

В 1440 увеличение проивзодительности крайне незначительно, можно считать что его нет.

200W(3060Ti) vs 160W(4060Ti)

40вт - ерунда, особенно учитывая то что 3000 серия лучше поддается андервольтингу без падения производительности.

И все это на самом деле хрень полная, прироста в производительности - нет.
4090 например = 3090ti по потреблению, вот только прирост производителности огромен.

На 12 отлично живут. А я вот со своей 3080 10ГБ слез с большим облегчением.

Да, непонятно как 3080 виновата в буме майнинга.

«В начале 2003 года у Nvidia были проблемы — компания AMD выпустила на рынок отличные графические адаптеры серии Radeon 9000.»

Простите? В 2003 AMD только процессоры пилила. А радиками занималась канадская компания ATI. Это только потом ATI стала частью AMD.

Ньюфаг писал статью очевидно Ati Radeon тогда были))

Модели неудачные для кого? Разве можно считать неудачной RTX 3080, если спрос на неё такой высокий, что даже спустя два года после выхода цена не опустилась до рекомендуемой?

для потерявших своё время на этой "статье"

Интересно, что статья очень похожа на материал от Tom's Hardware, вплоть до последовательности GPU :)

Было бы неплохо оставить ссылку на оригинал, я считаю

У FX 5800 Ultra (да и вообще у всей линейки FX того времени) главной проблемой была не низкая пропускная способность памяти, а крайне медленная работа пиксельных шейдеров второй версии. Для этой серии карт в той же Half-Life 2 опция вторых шейдеров была по умолчанию недоступна (хотя можно было включить принудительно) именно из-за того, что даже у FX 5900 производительность при их включении была хуже чем у самых бюджетных карт конкурента в лице ATI.

Ещё была затычка FX5200, вроде как и FX, и 5000 серии, но производительность у неё была плохая, чуть ли не с MX440 её сравнивали, а та тоже была тем ещё мемом уровня "Мы вам наврали, она хуже чем предыдущие серии!" Насколько я помню, там даже аппаратное ускорение шейдеров не завезли.

Были дефектные 8600GT, которые перегревались. Причем сначала говорили, что только в ноутбуках, потом что есть дефектные и на десктопах, а потом мне досталась бесплатно подобная, у неё были какие-то кривые драйверы, она вылетала в синий экран, причём помогала переустановка, но только на один раз. Я так и не понял в чём дело было, избавился от неё точно так же, получив от кого-то старую 8800.

Были карты GTX970, в которых было 4Гб памяти, но после 3.5 гигабайт происходила какая-то магия и память начинала тормозить.

Были GT1030, отличные низкопрофильные однослотовые затычки (сейчас вроде лучше найти AMD Radeon 6400 или что-то от Интел), если бы не одно но: были версии с GDDR5 и с DDR4. Причём различались они только ID на самой карте (ну или в описании), обе нагло продавались как GT1030.

Плавящиеся разъёмы в 4090 туда же.

С затычкой FX 5200 была совершенно глупая ситуация. Их было две разных и отличались они шириной шины памяти - у нормальной была 128 битная шина, а у огрызка 64 битная. По производительности они отличались очень ощутимо, а вот по названию не отличались вообще никак, все они были просто FX 5200, никаких XT, LE и тому подобных окончаний они изначально не имели. Да, в последствии появились FX 5100, FX 5200 LE которые точно были с 64 битной шиной и Ultra которая точно была со 128 битной шиной. Однако ситуацию это особо не изменило, под названием FX 5200 всё так же попадались оба варианта.

Надо сказать, что "нормальная" версия по уровню производительности была примерно на уровне MX 440 (которую ругали не за производительность а за отсутствие шейдеров в первую очередь), но в отличие от нее позволяла играть в первые игры которые без поддержи шейдеров не запускались, например те же Silent Hill 3 и Halo: Combat Evolved.

У меня была 5200 128 бит. Видяха как видяха. По скорости не фонтан, но цена/производительность у неё были вкусные. Морровинд тянула со всеми плагинами-украшалками

MX 440 (которую ругали не за производительность а за отсутствие шейдеров в первую очередь),

особенно если вспомнить что Gf4 MX440 фактически была разогнанной версией Gf2

Маркетинг такой маркетинг...

Она была чуть измененной версией Geforce 2 MX 400, которой подняли частоты и вместо памяти SDRAM поставили DDR.

Еще забыли добавить что все поколение 8800 страдало от отвала чипа из за неудачного припоя.

5200, потом 210 и 240 всегда были затычками, я это поколение пропустил перейдя сразу на gtx270.

"За всю историю компании" - это мощно. Автор явно не слышал ни про Riva128, ни про MX480...

А разве Riva128 была неудачной? По-моему, вполне себе популярный мейнстрим своего времени, с хорошим сочетанием цена/производительность

У неё дрова были так себе, которые конфликтовали со всем подряд. У меня самого была такая видеокарта, хорошо помню, как с ними мучился... :(

в те годы мало у кого нормальные дрова были ;) кто там конкурент ривы то был адекватный, вуду1?

потому что дичь типа Savage и прочих непоймикаких ускорителей..были еще хуже

а во времена ривы Diamond отметился со своим сверхкривым софтом

Рива128 - это примерно Вуду2, насколько помню. И вот как раз она была офигительна.

Она до первой вуду по производительности не дотягивала вообще никак.

Я имел ввиду, что рива128 - современник вуду2.

Рива128, это первая половина 1997 года, она с первым вуду соперничала. Вуду2 вышла в 1998, и там уже РиваТНТ через пару месяцев подоспела.

Честно говоря, я таких нюансов не помню. Помню, что мы с однокурсником одновременно видюхи покупали - я на Риве128, а он на Вуду2. И разница в играх была поразительная в пользу Вуду, я тогда сильно расстраивался

У неё дрова были так себе, которые конфликтовали со всем подряд

Это у вас ещё не было PowerVR или Rendition Verite. У Ривы дрова были ещё ого-го.

У меня был (и до сих пор есть) Matrox M3D, который PowerVR PCX2. Поддержка Deirect3D у него была максимально отвратительной, зато был офигенный минипорт драйвер OpenGL, который позволял рубиться во все игры сделанные на движке первого\второго квейка, включая Half-Life, а еще в играх на движке Unreal была поддержка нативного API этой карты (вернее была в первом Unreal и можно было перенести в другие игры) с которым она по производительности приближалась к первой вуду.

Про какой именно Rendition Verite вы говорите? У меня есть V2200 - офигительная карточка, никаких проблем с Direct3D и OpenGL, производительность вполне сравнима с Voodoo Graphics, хотя конечно Verite вышла позже. Как по мне, эта карта намного лучше чем та же Riva 128.

зато был офигенный минипорт драйвер OpenGL

Подозреваю, этот офигенный минипорт появился уже после того, как меня достали другие особенности PowerVR PCX2, и я от него избавился.

У меня есть V2200 - офигительная карточка, никаких проблем с Direct3D и OpenGL

У меня была V2100, в принципе, играбельнее, чем предыдущая, но опять же таки, туман в крапинку, дым в квадратики...

Ожидал увидеть 4090 с её плавящимся разъёмом питания.

Или те, у которых чип отваливался - если склероз не подводит, ноутбучные этим особо страдали...

Все страдали если попадали в тесный корпус.

Ожидал увидеть 4090 с её плавящимся разъёмом питания.

Хайп закончился, разъёмы тоже плавиться перестали

Не перестали кстати, судя по ответам СЦ, даже новости пробегали что это по прежнему вполне себе встречающаяся проблема.

Ничего не перестало. Пост месячной давности:

NorthridgeFix has disclosed that they still get "20 to 25 graphics cards per week" which is a shocking amount.

https://wccftech.com/hundreds-nvidia-geforce-rtx-4090-gpus-still-prone-to-12vhpwr-connector-issues/

Производитель БП советует феном прогревать провода при подключении таких карт :)

https://knowledge.seasonic.com/article/72-psu-recommendations-for-nvidia-rtx-4000-cards

A common reason why consumers are facing the problem in the first place is that the power connectors are not fully plugged into the graphics card, which results in a poor contact force resulting in disruptions within the power delivery process.

Втыкайте правильно, не гните, не покупайте ноунейм китайские переходники и будет вам счастье.

не покупайте ноунейм китайские переходники и будет вам счастье.

Сижу уже год на чудесном китайском переходнике с БП Corsair на 1 12VHPWR, прекрасно работает, в отличие от поделок бракоделов CableMod. :)

Что касается расплавленных разьемов, то вне зависимости от кабеля и\или переходника не помешает настроить мониторинг GPU 16-pin 12VHPWR Voltage. Упал ниже 11.9V - shutdown.

не покупайте ноунейм китайские

...не трогайте провода в полнолуние и не дышите.

Хотите сказать что 100 карт с конкретнй проблемой в месяц у ОДНОЙ ремонтной конторы это случайность? Почему за все годы существования 3D акселераторов ничего подобного не случалось?

не покупайте ноунейм китайские переходники  и будет вам счастье.

Не использовать кабель от самой Nvidia?

Что вы посоветуете человеку, у которого переходник расплавился через год?

Это можно с натяжкой приплести к статье. Плохой разъём не значит плохая плохой чип. 4090 даёт удивительный прирост производительности и между ней и 4080 просто пропасть.

Да и RTX 3050 в качестве суматошной затычки тоже сам по себе странный продукт.

Абсолютно и полностью бредовый рейтинг в первых трех позициях. Каким это местом 20 и 30 серия провальные, если их скупали на корню майнеры?

А вот что следовало бы включить так это не только 5800 Ultra, но и 5900 и 5950. Они были получше, но проблемы не решали. Окончательно проблему с шейдерами решили только карты 6800.

Если претензии к цене, то советую вспомнить двухчиповых монстров начиная с 7950GX2. Если претензии к производительности, то советую вспомнить какую-нибудь MX440, которая устарела в момент выхода, у которой не было вообще никаких шейдеров, маловато памяти, усеченная шина памяти, тем не менее отлично продавалась.

Да уж, были нищебродские времена :) celeron, duron и это одоробло gf4 mx440

Выбор был невелик, тогда железо стоило довольно дорого, для игр актуальнее была PS 1. Или страдать со слабым железом, как было у меня при покупке первого ПК.

Можно подумать что сейчас оно стоит дешево

Дорого? Какую-нибудь 6600GT можно было купить за 220-240 долларов. 6600GT - это половинка тогда топовой карты 6800 Ultra, а по частоте чипа +25%. Сколько сейчас стоит половинка RTX4900?

очень доступно железо тогда стоило

Я в свое время купил себе Gf2MX400 когда были актуальны Gf3 за какието очень небольшие деньги (для студента с копеечной стиппендией, тупо накопил)

сейчас я не могу (точнее могу жаба смотрит на меня квадратными глазами) купить даже видеокарту заглушку чтобы хоть чотопоказывало из современного (чтобы не упражнятся с устаревшими драйверами нвидии (для Gf 630) в линуксе которые умерли, ...уже 10тыщ почти стоит за что неясно..

Ахахах короче все карты восьмой (топовой) серии - говно, потому что дораха))) Ну видно титанические умственные усилиия, затраченные на написание статьи, ставлю лайк

В начале 2003 года у Nvidia были проблемы — компания AMD выпустила на рынок отличные графические адаптеры серии Radeon 9000

Странно, а как компания AMD могла выпустить продукт другого производителя?)

Ну а вообще зашел посмотреть, будет ли упомянута линейка FX, и да, упомянули. Я смутно припоминаю, были слухи, что линейка получилась горячей потому, что была основана на технологиях 3dfx, спешно модифицированных инженерами Nvidia.

geForce 256, gf3. Очень быстро их убрали из производственной программы.

Была такая карта, отлично работала, тянула игры все на то время. В чем с ней не то было?

В списке только FX5800 имеет право присутствовать, как и остальные карты этой серии, вчистую сливавшие конкуренту в играх со вторыми шейдерами, но при этом все равно неплохо продававшиеся. А где NV1, на которой история Nvidia могла и закончиться? Ну с натяжкой еще GTX480, да, хотя там проблема только в температуре была, производительность была неплохой и карты были довольно живучими. А в остальном - все модели успешный успех в финансовом плане, в итоге все пришло к игровым картам за 1500$+ на отбракованных чипах, которые расхватывают, как горячие пирожки и к тому, что одно и тоже по сути продается по несколько раз за свой жизненный цикл.

Nvidia NV1, дальше нормально. Riva128 у меня была - в общем хорошие впечатления. FX 5200 - да, медленная, я тестировал ))

3080 сейчас, спустя 3 года отличная видеокарта

Разве что если дождались 12ГБ версии, либо если монитор FullHD.

FX5900 Ultra не существовало. Были FX5900, FX5900XT и FX5950 Ultra.

я дал вам ссылку на референсную карту на которую куча обзоров есть, то что там на сайте в связанных продуктах есть асус, еще не значит что он был единственным продуктом на чипе этой линейки (и то судя по вики он даже не от того семейства)

также

на вики тоже ошибаются? https://en.wikipedia.org/wiki/List_of_Nvidia_graphics_processing_units

более того 5900Ultra это NV35, а 5950 ultra это NV38

Я бы закинул сюда еще GTX295, двухчиповый монстр с лютой прожорливостью и даже по тем меркам мелким объемом vram.

А где GeForce MX 32Gb Tornado? Вот она точно была неудачной. Не знаю из-за нагрева или недостаточного качества, но со временем карта теряла контакт в AGP-слоте. На экране шла цветная рябь и надо было отключать системник, вынимать карту и пробовать подтянуть контакты слота иглой.

Был "счастливым" обладателем фх5700 на 128 мб. Карта дорогая, слабая и абсолютно не поддающаяся разгону.

До сих пор помню как при игре в тёмного мессию меча и магии у меня часть экрана была засвечена белым - получалось такое шахматное поле на экране.

Дополнялось всё это вторым "шедевром" комнестроения - пентиумом 4 2.8Ггц. Это греющееся чудовище без мощности.

У меня была 9600про+ пентиум 4 3.0ггц все летало включая дум 3, правда не сразу а после выхода нормальных драйверов

А еще у зелёных было модно перемаркировывать чипы.. Емнип GT620 был переименованием чипа прошлого поколения.

Sign up to leave a comment.