Как стать автором
Обновить

Мощь и заоблачная цена: что известно о видеокартах NVIDIA GeForce RTX 5000-й серии

Уровень сложностиПростой
Время на прочтение6 мин
Количество просмотров36K
Всего голосов 9: ↑6 и ↓3+5
Комментарии67

Комментарии 67

Я недавно еле впихал 4070 в корпус ПК (и надеюсь, что ее хватит на следующие лет 10 с учетом, что я прохожу игры 8-10 летней давности, а она тянет то, что есть на рынке сейчас) и выглядит так, что с ростом их габаритов, скоро не видяха будет вставляться в комп, а комп вставляться в видяху...

От NVIDIA привычно ожидать отвал видеочипа раньше 10 лет.

У меня 1070 доработала без проблем до замены на 4070ti. После чего была продана и может дальше работает.

Удваиваю. Мои1060 пара штук работали, работают, и будут работать у нетребовательных приятелей из глубинки. Но то Pascal, его чтоб убить - ещё постараться надо ))

У меня Gainward Geforce GTX 570 platinum лет 10 стояла как заглушка - редко что на ней запускал, пока в один момент не начались синие экраны из-за драйвера видеокарты. GPU-Z показал, что объем видеопамяти стал 0 Мб.

Я недавно взял 4090 которая по габаритам прилично меньше прошлой 4080, которая была прилично меньше прошлой 7900хт, так что тут все зависит от модели насамом деле. 4070 вообще не большие же, не знаю откуда там браться размеру если куллера мизерные?

Хорошо конечно если что-то будет во что-то вставляться, но скорее всего комп будет просто лежать на видяхе или стоять на ней ибо уже сейчас существуют на столько компактные и мощные решения с чипами Intel в том числе i9, что системник целиком в карман влезает без учета блока питания конечно же, который не сильно больше по размерам.

Тем временем AMD объявила, что не будут делать топовые видеокарты, а сосредоточатся на мобильных.

Очень странно с учётом того, какие сейчас развергаются бездны спроса со стороны машинного обучения.

AMD в машинном обучении практически не представлены, портируют для них все модные штуки просто постольку-поскольку. Мне кажется, что у AMD как раз был бы шанс вырвать узкую нишу "домашнего ML" у NVIDIA, выпусти они на рынок карточку с 32-48ГБ VRAM, пусть и не особо мощную. Даже на уровне 4060-4070 было бы хорошо - пофиг, что не особо быстро работает на 24ГБ и меньше, главное, что лезет больше 24 при необходимости. Но они умыли руки.

Тут нет какого‑то сетевого эффекта, который бы забетонировал монополию CUDA. Красным достаточно своими силами довести до ума поддержку ROCm в TensorFlow и PyTorch, и всё — кусок рынка их.

NVIDIA быстрее, под них делается в первую очередь, с ними нет нет проблем (в целом и из-за кривого портирования в частности). Ничего из этого AMD изменить не может, но могут доложить памяти. Не стали.

Вместо этого их юристы рассылают угрозы энтузиастам, которые пытаются что-то сделать. Так что у монополии CUDA железобетонная причина: тупость.

Это надо библиотеки знатно перетряхивать, а у АМД столько знатных математиков нет. Программистов тоже.

AMD не прекращают бороться за рынок ML. https://www.tomshardware.com/pc-components/gpus/amd-deprioritizing-flagship-gaming-gpus-jack-hyunh-talks-new-strategy-for-gaming-market

AMD в машинном обучении практически не представлены

TH: Okay, for the data center, you're still planning for King of the Hill?

JH: Of course, we have to because that’s performance-per-dollar. Even Microsoft said Chat GPT4 runs the fastest on MI300

Ну дела.

MI300 это, конечно, хорошо. Но если ваши библиотеки не могут покрутить "с пеленок" дома, если за пределами облаков посмотреть на архитектуру нельзя, то получается что вы себя обрекаете быть узкоспециализированной штукой для очень малого количества людей.
Не зря же к офисам и прочим адобам стараются приучать еще в школах и ВУЗах - чтобы работяги потом автоматически выбирали то, с чем уже имели дело.
Ну а быть молодцом где-то там в одном (условно) здании с кучей суперкомпьютеров - ну ок...

Вроде не так, на среднем классе и широком охвате, в "народный" сегмент целят.

Чувствую что Nvidia так и продолжит игнорировать VR... 4070Ti, 12GB VRAM для ВР совсем не хватает чтобы рендерить картинку в нативном разрешении без апскейлинга для того же Quest 3, не говоря уже о Pimax Crystal Light. Сейчас 16ГБ это минимум для симов. С другой стороны есть AMD, но их дрова это танцы с бубном.

При том, что vr это то самое место, где вся эта гигантская производительность бы пригодилась и где сейчас даже 4090 вытягивает с определенными компромиссами.

VR игнорирует в первую очередь потребитель. Если бы на VR был спрос, для него делали бы железо. Но в данный момент VR это аттракцион, как какое-нибудь 3D ТВ лет 5-10 назад. И траектория у него сейчас такая же.

VR только набирает популярность, Meta уверено движется к аудитории в 100М но это всё автономки с графикой как в играх 15ти летней давности и очень большим апскейлингом с мыльной картинкой. ПК VR умирает, потому что железо что его тянет стоит слишком дорого для среднего обывателя. Для себя, последние 4 года я играю в ВР игры гораздо больше чем плоские. Библиотека ВР достаточно большая, всегда можно найти что-то стоящее, я бы не слушал тех кто говорит обратное.

VR только набирает популярность

Не знаю, что там набирает популярность... Как в 2020 болтался ниже 2%, так и сейчас болтается. Последний показатель "Steam users with VR Headsets" - 1.69% (-0.04%) по сравнению с 1.91% в апреле 2020, когда эта строчка появилась.

Meta уверено движется к аудитории в 100М но это всё автономки с графикой как в играх 15ти летней давности

Ну это мобильный гейминг на стероидах. Как я и говорил, аттракцион. Из "постоянного" в VR только VR Chat да Beat Saber. Все остальное щупается месяц (в сумме) и убирается в долгий ящик. Я свой Quest (1 или 2, не помню уже) доставал последний раз года два назад.

ПК VR умирает, потому что железо что его тянет стоит слишком дорого для среднего обывателя.

Разработчики просто не хотят тратить на него время. VR нормально и без особых усилий портируется только на симуляторы, в том числе порнуху (ничего против не имею, если что). Вот там да, буквально каждую неделю что-то выходит. Из больших игр чтобы что-то поддерживало VR я даже и не слышал со времен Alyx. В основном он везде отваливаются, когда разработчики теряют интерес: например, в Phasmophobia.

Последний показатель "Steam users with VR Headsets" - 1.69% (-0.04%) по сравнению с 1.91% в апреле 2020, когда эта строчка появилась.

Ну вы по сути подтвердили то что я сказал выше о том что весь рынок ВР переходит от ПК на автономки после популярности Quest 2, та же тенденция с портативками, с выходом SteamDeck (упустим Нинтендо) их популярность растет как на дрожжах. Похоже современный обыватель хочет получить всё в одном заплатил при этом минимум, даже если придётся пожертвовать качеством. Важен ещё юзер фрикшн, всё что требует более пары кликов для запуска игры вызывает у них проблемы...

Из "постоянного" в VR только VR Chat да Beat Saber. Все остальное щупается месяц (в сумме) и убирается в долгий ящик.

Pavlov, Contractors, Contractors showdown, VAIL, Red matter, Asgards wrath, Medal of honor, Assassins Creed Nexus, Blade and Sourcery продолжать можно долго. VR Chat сам по себе не игра а метавселенная по типу Roblox, контента там больше чем в сотни играх вместе взятых, хочешь пошел играть с друзьями в хоррор квест, не нравится такое, можно сходить в кино, караоке, amongus, prompt hunt, всё перечислить нереально в формате одного комментария. Потому и стабильный онлайн в 100к (а в пиках и до 500к) там вполне оправдан.

Разработчики просто не хотят тратить на него время.

Аудитория кратно меньше, разраборка под ВР более сложная, требуется постоянно переключатся между монитором и ВР даже для того чтобы сверить цвета или масштаб потому что на плоском мониторе всё выглядит совершенно иначе (разработки ВР думаю понимают эту боль). Потому без дотаций разработка ААА проектов на нынешней стадии невыгодна.

Играю на XBox и Nintendo Switch. Для всего остального есть Mac mini M2 и Mac Pro M2.

А необходимость в этом есть для геймеров? Насколько я помню 4090 вполне тянет 4к со всеми рейтрейсингами в 60-70фпс. А с длсс там должно быть под сотню. Зачем нужен 1.5х буст?

Для обучения современных llm же нужно под сотню гигов памяти на видеокарте. В общем ценность продукта непонятна.

Для обучения - Hopper. Все эти 5090 - все-таки масс-маркет для развлечений. Чем загрузить такую производительность - найдут. Придумают какой-нибудь шутан от первого лица, где будет 5k@120fps@120Hz и люди купят. Для игр нужны не видеокарты, а гейм-дизайнеры, сценаристы и отсутствие маркетологов

Для обучения - Hopper.

Hopper не для простого люда. Если раньше можно было покупать топовый Титан с отмазкой "мне для обучения нейронок" то сейчас это не актуально.

Придумают какой-нибудь шутан от первого лица, где будет 5k@120fps@120Hz и люди купят

Это все есть и сейчас, нужно это почти что никому. Продать 2k->4k и 60fps->120fps еще можно. Удачи продавать 4k->8k. Пока VR не дозреет тут выжженное поле.

Для игр нужны не видеокарты, а гейм-дизайнеры, сценаристы и отсутствие маркетологов

Все нужно. В киберпанк всяк приятнее играть с ртх и на ультра с 70фпс а не с 20.

Удачи продавать 4k→8k

Да без проблем - придумать новый киберпанк, продать его, даже саму игру можно и не делать, как последние лет пятнадцать. Только написать, что best viewed at 8k

Hopper не для простого люда.

NVidia в принципе мечтает забыть о простом люде, зачем, если H100 генерирует 72% выручки, а весь про сегмент - 91% в сумме.

Да без проблем - придумать новый киберпанк, продать его, даже саму игру можно и не делать, как последние лет пятнадцать. Только написать, что best viewed at 8k

Без проблем не получится потому что технологии не масштабируются линейно в плане стоимости и потребностей. Примеры: достаточно быстро произошел апгрейд Ethernet 10мбит->100мбит->гбит а дальше все, 2.5 с трудом проникает в премиум сегмент. 10гбит консьюмерские устройства так и не получили. Аналогично cd -> dvd -> blue-ray.

А причина проста, возьмем 100 мбит eth как точку отсчета, из ста человек примерно 90 условно готовы доплатить 10% к стоимости устройства за 1гбит, 50 человек готовы доплатить 30% за 2.5гбит и 1-10 готовы доплатить 50% за 10гбит, ну им просто не нужны такие скорости. И вот тут экономика разваливается потому что невозможно при таком малом количестве желающих сохранить эти доплаты в вышеописанных рамках, только за оверпрайс.

Аналогично и разрешение видео, для многих уже составляют проблему отличить QHD от 4k а 4к от 8к на мониторе и подавно не отличат. То же самое и с частотой, 30fps->60fps заметят почти все, 60fps->120fps немногие, 120fps->240fps почти никто. Это будет сродни аудиофилам прогревающим кабели за $1000. А бизнес на таких аудиофилах хоть и возможен но не в области суперсовременных чипов, там нужна именно массовость.

Вот и получается что 40xx карты почти сожрали рынок игровых видеокарт закрыв потребности 4к@60fps. Тут нужно фиксировать производительности на этом уровне и врываться на рынок с продуктом дешевле nvidia. Жаль что у AMD и Intel лапки.

NVidia в принципе мечтает забыть о простом люде, зачем, если H100 генерирует 72% выручки, а весь про сегмент - 91% в сумме.

Не зачем в том то и суть.

Вот и получается что 40xx карты почти сожрали рынок игровых видеокарт закрыв потребности 4к@60fps.

4090 не закрыла потребности 4K@60fps, потому что в ряде игр без DLSS оно не может в 60 стабильных FPS на максимальных настройках. Это уже не говоря о том, что 4K бывает и больше 60 гц. :)

4090 не закрыла потребности 4K@60fps, потому что в ряде игр без DLSS оно не может в 60 стабильных FPS на максимальных настройках.

Без длсс обязательное требование?

Это уже не говоря о том, что 4K бывает и больше 60 гц.

Бывает, об этом в комментарии тоже написано.

Без длсс обязательное требование?

Ну в целом, конечно, желательное. Причем черт с ним с апскейлером, уже ведь и его мало, теперь frame gen-ом приходится рисовать то, чего нет - вот это печально, на карте за 2000 баксов-то.

Насколько я помню 4090 вполне тянет 4к со всеми рейтрейсингами в 60-70фпс

Вы недооценивате размер болта, который разработчики AAA игр кладут на оптимизацию. Особенно тяжко становится с рейтрейсингом. Многие из современных тайтлов не тянут 60fps даже fullhd даже на самой топовой видяхе.

Ну с трассировкой это в целом логично, особенно в играх типа Alan Wake 2, где даже в отражении видимо влияние переотраженного света на объекты. Выглядит красиво, но требует тяжёлых расчетов и очень чувствительно к разрешению.

Нужно ли это конкретному игроку - отдельный вопрос, но в целом не всегда дело в оптимизации, ибо трассировка как раз идёт в паре с тем же DLSS.

Но да, хватает и проектов с просто ужасной оптимизацией, но что интересно, у них чаще проблемы из-за CPU в первую очередь, а не GPU (особенно если игра на UE).

Есть VR. Есть всякие 100+гц 4к мониторы для ценителей. Ну и игры все жиреют. Вуконг вроде как даже на 4090 не может на 4к 60 fps вытянуть, как слышал.

А необходимость в этом есть для геймеров? Насколько я помню 4090 вполне тянет 4к со всеми рейтрейсингами в 60-70фпс. 

Необходимость будет всегда. Так как графика в играх это всегда огромное количество приёмов, ухищрение и триков - которые используют для имитации чего-либо (света-тени-отражений-физики, в общем реальных эффектов). Это повышает производительность и даёт желаемые 60-90 фпс, но сказывается на картинке и реализме. Повышение производительности позволяет где-то совсем отказываться от имитации, либо создавать более умелые имитации.

сказывается на картинке и реализме.

А главное — на трудозатратах.

Именно

Зачем мучиться и пытаться урвать еще хотя бы чуть-чуть оптимизации, триков, ухищрений, тратя на это время (и зарплату) разрабов.

Проще прописать в системных требованиях "Рекомендуется RTX 9990 Ti Super, Intel Core i19 8 Gghz / Ryzen 99989X Thread Ripper, RAM 256 GB" - и всё, задница прикрыта )))

Ситуация на самом деле весьма похожа на то что творится сейчас в WEB разработке (сам оттуда) )))

Проще прописать в системных требованиях "Рекомендуется RTX 9990 Ti Super, Intel Core i19 8 Gghz / Ryzen 99989X Thread Ripper, RAM 256 GB"

Как отбивать затраты? Купят это два фрика с таким железом. А третий, у которого есть это железо, скажет "не мой жанр, жду другую игру".

Как отбивать затраты?

Такое ощущение, что эта часть вообще современным AAA студиям не интересна. То ли они инвесторские деньги жгут, то ли это очень хитрая схема отмывания денег, но постоянно принимаются решения, которые могут только снизить популярность игр. Та же повесточка, например.

Действительно местами напоминает комедию "Миллионы Брюстера" - требуется потратить деньги максимально быстро с заведомым убытком.

Как будто это что-то плохое.

Если инди-одиночка сможет позволить себе графику уровня AAA, отрасль от этого только выиграет.

Рейтрейсинг сейчас - это коллекция бешеных компромисов, которые в итоге приводят к мыльности. Очень даже есть куда расти - в сторону чётких текстур, нерасплывающихся мелких объектов, и света, не отстающего от его источника на секунду-две.

Я вам приведу видео. Тут человек нахваливает новый AI-denoise в DLSS3.5. Стало действительно намного лучше, но так же видно, насколько ещё есть куда расти. И все перечисленные им проблемы можно решить тупо брутфорсом, увеличив плотность лучей.

Ага щас, вот начнет Nvidia форсить трассировку путей и тогда 4000 будут ощущаться старьем. Например 4090 в киберпанке в 4к без апскейлеров с трассировкой путей выдает ~20 кадров

Ну и цена условной 5060 будет баксов 600... Идут они лесом...

Геймеры, архитекторы - это понятно. Но что делать с гарантией? Любой официальный сервис откажется от возможного гарантийного ремонта, поставив клеймо "майнер". И ведь не доказать никак. К слову, вот пример одного из кучи сайтов с анализом прибыльности майнинга например для RTX 4090 https://2cryptocalc.com/ru/what-to-mine-with-4090 До сих пор гемор у рядовых пользователей из-за этого. Б.У. может быть подпалена, новая - без гарантий....

доходность меньше доллара в сутки? .... пфф...

Этот мегакалькулятор ещё и не считает электричество, так что...

Б.у. асик стоит копейки, а майнит как 4090. И выкинуть не жалко (мощный БП и кулеры с корпусом могут всегда пригодиться). Использовать видеокарты для майнинга сейчас - это как топить печку деньгами.

По российским законам в пределах гарантийного срока доказывать должны не вы, а продавец/производитель/импортер.

Но сейчас конечно проблема с тем, что через время после покупки продавец может просто пропасть, особенно при сером импорте.

Да и срок гарантии 2-3 года на видяхи, за доплату - 5.

Да и срок гарантии 2-3 года на видяхи, за доплату - 5

Там, если условия этой, так сказать "доп гарантии за доплату" почитать, особенно мелкий шрифт, внезапно выясняется что это никакая и не гарантия вовсе... )))

Так доказательство лежит на продавце :)

Из-за этого, по слухам, NVIDIA рассматривает возможность использования нового 16-контактного разъема питания стандарта PCIe 6.0

Взяли бы сразу CEE 7

Я так понимаю, на выпуск чего-то для казуальных геймеров обе компании положили огромный болт. Сделали бы видюху баксов за 150, и потреблением ватт в 40-50...

потреблением ватт в 40-50

Потребление в 40-50Вт - это уровень встроенного видео даже на самых новых техпроцессах. Собственно описанная вами ниша теперь ими и занята. А с пиковым потреблением от 160Вт и ценой от $200 продаются карточки прошлого поколения, которые никто не снимал с производства - 6600XT и 3050 8GiB.

Честно говоря, не ожидал, что встроенное видео столько потребляет. Это многое объясняет...

Недавно AMD заявила, что в блишее время сконцентрируется на мидл-сегменте.

я нашел  Palit GeForce RTX 3050 KalmX, с пассивным охлаждением и потреблением в 70 Вт, правда в половину дороже от указанной цены, но продукт достаточно интересный

Меньше частота, меньше вычислительных блоков, меньше памяти чем у обычной 3050. А она правда интересная в свете совсем скорого выхода lunar lake?

наверно если есть возможность подождать выхода и сравнить - то лучше подождать и тогда уже принять решение

Успех архитектуры RDNA и ее итераций заставляет NVIDIA более агрессивно подходить к разработке и выпуску новых продуктов.

А их совместный успех заставляет разработчиков более агрессивно забивать на оптимизацию. Я могу ошибаться, но со времён тысячной серии росли только требования к объёму видеопамяти, и никаких прорывных технологий не случилось. Сам сменил 1060 3g на 3060ti только в этом году потому что захотелось и отчасти из-за видеопамяти. Не заметил никаких изменений кроме того, что счётчик фпс стал показывать 100 вместо 70 (условно) и в новых проектах можно ставить максимальную дальность отрисовки (что опять отсылает нас к оптимизации). Однако, необходимость в чем-то более модном для рядового пользователя находится уже на уровне необходимости в айфоне новейшей модели.

Однако, необходимость в чем-то более модном для рядового пользователя находится уже на уровне необходимости в айфоне новейшей модели.

Вы сами себе противоречите. Необходимость в чем-то более модном для рядового пользователя как раз таки и исходит из агрессивного забивания разработчиков на оптимизацию. У меня на 3090 демо версия Final Fantasy 16 без апскейла с трудом 60 фпс тянет на 1440p не зависимо от настроек. На 3090, Карл - видеокарте, которая была топовой еще пару лет назад. Учитывая что у меня монитор 180гц есть некоторое желание хотя бы 120 фпс видеть с такой конфигурацией.

не зависимо от настроек

Хмм... У меня такое было в Детройт помню, на старом моём компе. Я блин ВСЁ перепробовал, даже на ультра-низкие сбрасывал, толку - ровно ноль. Как дико фризило - так и фризить оставалось, причем не микро-фризы, а прямо на несколько секунд. И так каждые секунд 10.

В итоге сменил проц с 4 ядра 4 потока на 4 ядра 8 потоков - и всё забегало на максимальных
Возможно и кеш в проце зарешал, не разбирался уж, но склонен на потоки грешить. Сменил с i5 3-го поколения на i7 того же поколения (1155 вечен, хех, как в своё время 775 )))

Зато дало стимул к смене моего старичка ))

которая была топовой еще пару лет назад

Пару лет назад топовой стала 4090, вашей уже 4 года на днях исполнится. А вообще, то, что спустя 4 года почти-флагман осиливает замахивается на 1440/60 без апскейла говорит о том, что мощность растёт быстрее требований. Условная 680 — топ 2012 — в 2016 даже в самых влажных фантазиях не могла обеспечить в новых играх подобную производительность. Да что там, чтобы в условный воч догс 2 поиграть в 1440/60 даже gtx 1080 того же года не хватило бы.

Так что тут радоваться надо, а не сокрушаться.

Изображение RTX50XX с большим радиатором в публикации, ну очень похоже на творчество нейросети 😁

Есть возможность купить 4080 S, но смотрю на 4070 Ti S, ( при наличие сейчас 3080 10Gb и 3070) собрал sff сборку am5 - закинул 150к выделенные на видяху на счёт под норм % и жду появления 5ххх, а там уже и будем сравнивать, да и 4ххх карты не куда не пропадут из продажи! :)

Зарегистрируйтесь на Хабре, чтобы оставить комментарий