Комментарии 66
Видеокарта EVGA RTX 3090 Ti Kingpin имеет энергопотребление 1,2 кВт
Это не видеокарта, это отопительный модуль.
Hidden text
Вот такая конструкция с парой 3090 очень хорошо справляется с ролью печки в небольшой комнате. Боюсь, если бы карта реально потребляла 1.2 кВт, то выносить радиатор надо было наружу, как блок кондиционера;)
Блок домашнего кондиционера киловатт 5 тепла может рассеивать
Вот такая конструкция с парой 3090 очень хорошо справляется с ролью печки в небольшой комнате
Гм…
В комнате +28, i7-8650U и HD Graphics 620 TDP=15…25 W…
Теперь попробуйте повернуть вентилятор на 180 градусов и снова измерить температуру. Основная идея состоит в том, чтобы отвести тепло и рассеять его, а не заменить горячий воздух объема холодным, заперев его в объеме. Взгляните на системы охлаждения двигателей автомобилей: вентилятор всегда отводит тепло, а не дует на радиатор холодным воздухом.
PS: <spoiler title="Google-translated; I don't have a cyrillic KB layout on my laptop">Now try to turn the fan 180 degrees round and measure the temperatures again. The main idea is to take the heat out and dissipate it, not to replace the volume's hot air with cold one, having it locked up in the volume then. Take a look at cars engine coolant systems: the fan always takes the heat off, not blows some colder air on the radiator.</spoiler>
PPS: markdown doesn't work and is permanently disabled.
Видеокарта EVGA RTX 3090 Ti Kingpin имеет энергопотребление 1,2 кВт
Откуда это взяли? В официальных спецификациях указано потребление 450W как и положено для 3090Ti, и минимум 1000W БП для всего компьютера (которого будет хватать с запасом, если он будет 80 Platinum).
Цены на карты уже не те, никому не нужны карты по 2500+ даже с водянкой, вот и дают в нагрузку БП, который просто хороший БП и к карте отношения не имеет.
Все равно не слишком понятно.
А если у меня уже есть хороший БП и новый мне просто не нужен?
Значит тогда я не целевая аудитория для данной карты?
Я бы ещё понял если бы это был подарок, но 'в нагрузку'...
Может все таки это такой маркетинговый ход и БП действительно 'в подарок'?
Откуда это взяли? В официальных спецификациях указано потребление 450W как и положено для 3090Ti, и минимум 1000W БП для всего компьютера (которого будет хватать с запасом, если он будет 80 Platinum).Тут недавно обнаружилась проблема, что официальные спецификации указывают требования, но их недостаточно — нужно теперь ориентироваться на рекомендации. Потому что видеокарты с чьей-то легкой руки теперь могут на короткое время превышать свое заявленное потребление (transient power spike) аж в 2 раза. И вот тут может оказаться, что если у вас карта на «450W», плюс процессор на 100, и БП среднего качества на 750W — вы вроде как и пролезаете в требования, но не дотягиваете до рекомендаций, и в зависимости от качества БП он может в момент таких скачков потребления уходить в защиту.
Вот здесь подробный разбор (про проблему подробно с 1:35):
Так что да: времена, когда для топовой видеокарты придется покупать БП на 1500W не за горами. Потому что сейчас требования — это «450W», а на следующей поколение пророчат уже 600. Умножаем на два — и все грустно.
Потому, рекомендация 1000W, а не 700. И с десктопным процессором (с TDP 100-130W) этой мощности хватит с запасом для постоянной работы на полной мощности (если это хороший БП, а не китайщина ща 100 баксов).
У меня есть система с TDP видеокарт под 700Вт и 100Вт процессором, 850Вт БП ее действительно не тянет и под нагрузкой отрубается практически сразу. 1200Вт же нормально держит полную нагрузку круглые сутки.
Что касается 1 кВт против 1,2 — полагаю, что идея в том, что карты этого вендора расчитаны на экстремальный разгон на воде или даже азоте, для саморазвлечения. Поэтому 1,2 кВт там наклевывается легко при желании.
1000Вт, это блок питания для всей системы, 450Вт жрет только одна видеокарта. Это разные вещи.
Производитель видеокарты ж не знает, что там за остальные компоненты в системе, потому и рекомендует с запасом. Это стандартная рекомендация для 3090Ti, другие вендоры тоже рекомендуют либо 1000, либо 850-1000, указывая что первого значения хватит если остальная система не очень прожорливая. Кто-то просто страхуется и пишет 1000, чтобы уже наверняка.
Ни к какому дополнительному разгону и (тем более) азоту официальные рекомендации отношения не имеют. Тот разгон, который позволяет делать производитель карты, там уже идет с завода.
В моем случае 1200 хватает на две(!) видеокарты 3090 с суммарным потреблением в районе 700Вт, а не 450. Для одной карты с потреблением 450Вт, 1000Вт блока питания хватит за глаза, если остальные компоненты системы более-менее стандартные.
Вы вроде бы пытаетесь найти какой-то заговор там где его нет.
Ни к какому дополнительному разгону и (тем более) азоту официальные рекомендации отношения не имеют. Тот разгон, который позволяет делать производитель карты, там уже идет с завода.Рекомендация у Kingpin выше стандартной, той же FE. NVIDIA рекомендует 850, Kingpin — 1200.
Для одной карты с потреблением 450Вт, 1000Вт блока питания хватит за глаза, если остальные компоненты системы более-менее стандартные.Да, 1000 хватит.
Вы вроде бы пытаетесь найти какой-то заговор там где его нет.Нет, просто обращаю внимание, что «требования» видеокарты по блоку питания и заявленные цифры потребления имеют мало отношения к реальности в 2022. Карты легко могут захотеть больше. Смотреть лучше на рекомендации.
А для потребителя лучше, чтобы производители честно писали, сколько могут потреблять их карты, а не копировали спецификации (450ВТ) с сайта NVIDIA, когда их карта запросто может скакнуть аж до 600-800ВТ потребления и увести БП в защиту.
1000Вт, это блок питания для всей системы, 450Вт жрет только одна видеокарта. Это разные вещи.Ни один производитель не рассчитывает, что кроме видеокарты на 450ВТ в системе обнаружится потребителей еще на 550ВТ. Потому что столько не сожрет даже 10900K в разгоне до 5.2ГГЦ или Intel HEDT XE (земля ему пухом). Они именно что подстраховываются, зная о прыжках своих карт по потреблению, и оставляют ~200ВТ на процессор и остальное железо. На БП экономить больше нельзя.
Производитель видеокарты ж не знает, что там за остальные компоненты в системе, потому и рекомендует с запасом.
Вы же понимаете, что мы сейчас друг-другу рассказываем одно и то же, что карте на «450» ВТ (в связке с процессором на 100-150) по-хорошему нужен БП на 800-1000ВТ? :)
Где вы увидели 1200Вт, применительно к Kingpin, не могу понять.
450Вт, жрет карта, 1000Вт они рекомендуют БП, 1600Вт БП дают в комплект. Откуда число 1200?
А по скачкам до 650-800Вт... есть мнение, что конкретный блогер просто решил скандал на ровном месте развести. Либо это проблема конкретной модели (у вендоров их сейчас столько на каждом чипе, что они могут и не успевать все их тестировать).
У большинства видеокарт никаких прыжков до 1.5TDP не наблюдается. Если бы наблюдалось, то и рекомендации по БП были бы совсем другими. Массовые рекламации не нужны никому.
450Вт, жрет карта, 1000Вт они рекомендуют БП, 1600Вт БП дают в комплект. Откуда число 1200?Виноват, похоже галлюцинировал, что они где-то писали рекомендацию на 1200. Там действительно 1000.
А по скачкам до 650-800Вт… есть мнение, что конкретный блогер просто решил скандал на ровном месте развести.Возможно. Но он вроде за таким замечен не был. А есть опровержения от других блогеров? Я слежу еще за AHOC, но он ничего об этом не говорил, по крайней мере пока. Есть еще косвенное подтверждение от Igor‘s lab (точнее его упоминание в комментариях, мне лень искать подтверждение на его канале).
У большинства видеокарт никаких прыжков до 1.5TDP не наблюдается.А многие ли вооружились соответствующим оборудованием, чтобы эти скачки в 100 μs зафиксировать, или удовлетворились показаниями простенького монитора или (тьфу-тьфу) HWINFO? Мне неизвестны другие популярные блогеры с таким железом. LTT пока себе Labs только строит, остальные как-то и не заморачиваются особо.
В комментариях к видео есть люди, которые одну топовую карту пытались «прокормить» от 750-850ВТ БП, и получали уходы в защиту, пока не заменили БП на 1000ВТ. Например: раз, два.
Если бы наблюдалось, то и рекомендации по БП были бы совсем другими.Почему же? Как раз 450х1.5+150ВТ на процессор — то на то и выходит. 825. Если скачки считать по множителю 2, то вот и 1000.
UP: победил свою лень и нашел подтверждение у Igor's Lab. Видеокарта в его обзоре тоже прыгала по потреблению, хотя и не так высоко — до 600ВТ (заявлено 480, рекомендовано 850).
850Вт блок питания уровня 80+ Gold выдаст 750Вт на выходе. 150 съест процессор (например, 12900KS, соответствующий уровню видеокарты). Еще ватт 100-150 уйдет на мать, память, накопитель, все куллеры и подсветки.
Останется 450-500Вт, т.е. впритык. И если у пользователя окажется что-то более прожорливое (заводской разгон памяти, например) или какие-то дополнительное устройство (не один nvme, а пара и жесткий диск в придачу, например) то у него могут быть проблемы.
Чтобы не решать эти проблемы, производителю проще порекомендовать мощность БП на ступеньку выше и все.
А то, что другие люди не опровергали проблему. Ее, опровергали все, у кого все корректно работает под максимальной нагрузкой и с БП той мощности, которую рекомендовал производитель.
И если бы проблема реально была, ее бы повторило еще три десятка блоггеров (многие из которых занимаются ремонтом видеокарт и у них есть осциллографы) и везде бы обсасывали. Как это происходит с теми проблемами, которые реально существуют и имеют массовый характер.
Примечательно, что покупатель не сможет подключить видеокарту к БП из комплекта — придется дополнительно заказать переходной адаптер для разъёмов PCIe Gen5 с 16 контактами, два из которые установлены на видеокарте. На БП таких разъемов нет.То есть блок питания за 250 баксов они в комплект положили, а на переходной адаптер денег не хватило? В чем вообще логика такого подхода?!
В том, что это, скорее всего, домыслы автора новости. И пока не известно, какие именно адаптеры будут идти в этом комплекте.
Я так понимаю, что если так продолжится, то скоро следующее поколение топовых компов мне пробки в Японии начнут выбивать, ибо тут 1500W на розетку максимум.
Надо просто подключать как плиту. Неразрывным проводом от щитка, через отдельный автомат и спецвилку для плит.
Прикольно. А как тогда утюгами, чайниками, пылесосами пользоваться?
С таким кпд блок питания сам выделяет ватт 200-300 и нуждается в водянке
Тогда почему производить не пишет с гордостью 90+?
Изначальный смысл цифры «80», если я правильно помню — это КПД БП для низких величин потребления: единицы и десятки ватт.
С этим у компьютерных БП традиционно проблемы: если на средних и максимальных мощностях у большинства (даже не самых лучших) БП КПД вполне приличный — обычно 90-95% и выше, то на мощностях близким к минимальным значение КПД стремительно падает.
Вот «80+» изначально и показывало приемлемый КПД таких блоков на низкой мощности. А потом просто стало именем системы сертификации, когда пошли градации bronze, gold и т.п.
"80 PLUS" - это стандарт, в котором в зависимости от классификации, КПД бывает от 80% до 96%.
Данный блок питания за счет потерь КПД будет выделять до 160 Вт тепла на максимальной нагрузке.
Мне кажется, или электроника пошла вспять? Вместо уменьшения габаритов устройств, происходит увеличение.:)
-Папа, папа купи видеокарту?
-Сын она к тебе в комнату не полезет, да и дом старенький боюсь проводка не выдержит:)
Скоро опять вернутся к двухпроцессорным видюхам. И они ещё и в толщину станут расти.
Верно. Однако, зависимость между производительностью и ваттами сильно нелинейная.
Разгон даёт +15% производительности за счёт +50% потребления. И наоборот, андервольтинг немного снижает производительность при сильном снижении потребления.
То есть я вполне допускаю, что на рынок будут поступать всякие 4090 Ti, которые будут на 10-15% медленнее 4090 Ti OC, но будут укладываться в 350-400W.
3090 для игр покупать не сильно рационально, потому и маленькая доля тех, кто просто хочет топ-топ. Остальные берут 3080, теряют в производительности чуть-чуть и сильно выигрывают по цене.
В комплекте к видеокарте EVGA RTX 3090 Ti Kingpin за $2500 идёт блок питания на 1,6 кВт