Как стать автором
Обновить

Комментарии 152

Производительность, цену рассмотрели. Это все хорошо.

А вот надёжность как то обошли стороной.

Среди ремонтников существует мнение, что AMD уступает в качестве NVIDIA, а некоторые модели красных, так вообще сыпятся.

С учётом этого критерия, рейтинг может очень сильно изменится.

а некоторые модели красных, так вообще сыпятся

Не могли бы вы владельцу видеокарты от amd подсказать какие модели сыпятся в данный момент ? и как в качестве уступает nvidia.

По моему опыту как все даже лучше.

А вот где минусы встретил только, так это в поддержке amd некоторых 3D движков для рендера (это дело годовой\двух годовой давности, сейчас может лучше). Возможно еще в каких-то классах программ поддержка в первую очередь идет nvidia с cuda,а уж потом radeon.

Но я никогда сам не замечал за последние лет так 5, чтобы radeon уступал или даже сыпался. Зато слышал, что и дорогие nvidia переставали работать, например из-за дешевых проводов.

Может мой опыт просто такой

одни из лучших в линейке 6000 серии это sfx, powercolor и, вроде, palit (себе брал 6900хт от sfx). очень легко можно посмотреть на одну и туже модель у этих производителей ценник значительно выше. Конкретных тестов я вам не приведу, но по моей компиляции информации в интернетах, я сам очень сильно озадачивался этим вопрос перед покупкой, эти 3 компании.

антиподов я уже не помню, но точно Жопа Камень не брать никогда, даже если последний вариант

Дружище, опыт опыту рознь. Не на что не претендую, обслуживаю себя, сына, дядьку и брата, ну ибо it. Так вот, за 20 лет повидал разные видеокарты, и для себя пришол к выводу. На год, вообще фиолетово что под капотом. Два, живое почти всё. Три, в шкафу валяются и те и другие, но кожанка попадает сначала в шкаф, потом или продаётся, либо уходит в офисные родителям и тд. АМД либо продается за 3 рубля, либо с матами ставяться столетние кривые драйвера, либо просто отрывается охлад, а остальное летит в мусорку.

Ещё, по опыту, кожанка более хороша в простое, ибо АМД всегда печь...

Повторюсь, ни на что не претендую, ппосто мнение...

Три, в шкафу валяются и те и другие,

Что это за видяхи такие, которые каждые три года уходят в шкаф? Я бы списал на какой-то лоу-энд, но раз "АМД всегда печь", то вроде бы речь идёт о флагманах.
Хотя сейчас флагманы пять лет спокойно себе пашут.

AMD уступает в качестве NVIDIA

Немного не так. У AMD лучше компонентная база, но иногда умирает графический чип. А вот у NVIDIA наоборот — если что-то умерло, то чаще это что-то из обвязки, а не сам чип.


И это не нужно воспринимать как "карты AMD массово мрут", такого нет. Отличие, скорее, в том, что конкретно придётся менять, если вдруг не повезет и карта помрёт (GPU менять дороже, чем какой-нибудь пробитый мосфет).


Плюс ещё стоит учитывать объём памяти. У условной 3070 — 8 гигов, а у 6700XT — 12. Вторая карта останется играбельной дольше (дольше протянет до момента, когда производительность игр серьёзно упрётся в нехватку памяти). Тип памяти тоже играет роль — GDDR6X, которую так любит NVIDIA, серьёзно греется и далеко не всякий вендор организовывает её достаточное охлаждение.

А еще Amd неплохо даунвольтятся, я свою 6800хт с 260вт до 190 опустил, и не заметил адской просадки, а вот комфорт поднялся в разы.

а я 3080ti подключил к водянке, и мне пофиг сколько тепла она выделяет.

Как человек, у которого однажды тихонько сдохла помпа, могу сказать: это до поры, до времени. Если у вас сдыхает кулер, медная/алюминиевая болванка худо-бедно и без него что-то сможет рассеять, дав чипу возможность увалиться в троттлинг, но выжить. А вот у пятака водянки теплоёмкость вообще несерьёзная.

Оно выживает, проверено. Прихожу я как-то домой, слышу комп орёт. Оказалось что вода в радиаторе замёрзла и алерт по температуре проца сработал т.к. ток воды прекратился.
Но вообще да, у меня есть желание подключить к ардуине датчик потока, чтобы при прекращении потока выключать питание компу.

Если замерзла — то это ладно еще, значит был запас по температуре. А если вот так помпа тихо померла в процессе работы, то может и не повезти.

Оно выживает, проверено.

Ну это вы просто выиграли в лотерею. Может, потому что у вас температура вокруг была низкая, а двигатель помпы все равно работал и как-то оно там крутилось между льдом и пятаком. Я вот не выиграл. Мне кажется, в неё лучше просто не играть, выигрыш нулевой, а проигрыш весьма недешёвый.

Ничего там не крутилось. Разве что был теплоотвод тупо за счёт толщины шлангов. у меня 10 внутренний диаметр.
выигрыш в сочетании тишины и производительности, и не подогревании квартиры в жару.
Я наблюдал как видеокарта уже при 52 градусах упирается в сочетание напряжения\температуры. А если мы говорим просто про проседание кривых частот то и там и снижение до 42 градусов давало выигрыш в частотах.
Температуры при тихом воздушном охлаждении недостижимые. Теоретически конечно можно вынести системник на застеклённый балкон и забить на тишину, но он у меня не застеклен.

выигрыш в сочетании тишины и производительности

Вы можете получить "аж" -5% к производительности, имея совершенно тихую систему на воздушном охлаждении, и не городить огород с водянками. ИМХО, водянки, это уже пережиток нулевых, или там первой половины десятых. Тем более, завтра вы поменяете видеокарту, и ваша водянка отправится на покой вместе с ней, потому что плашки под новую геометрию памяти вы не нашли.


и не подогревании квартиры в жару.

Один и тот же процессор и одна и та же видеокарта, на одной и той же частоте отдают абсолютно одинаковое количество тепла, вне зависимости от того, какая у вас система охлаждения. Более того, если ваша водянка позволяет работать на более высоких частотах, значит, она греет вашу квартиру больше, чем воздушный охлад :) Просто делает это тихо.

Вы можете получить "аж" -5% к производительности, имея совершенно тихую систему на воздушном охлаждении

1)да, только ещё видяха будет иметь при этом высокую температуру, мне её жалко.
2)и ещё 5% с процессора.

Тем более, завтра вы поменяете видеокарту, и ваша водянка отправится на покой вместе с ней, потому что плашки под новую геометрию памяти вы не нашли.

Не понял какую геометрию памяти. Под этой водянкой уже вторая видеокарта и третий процессор, пока водянку не выбрасывал.

Один и тот же процессор и одна и та же видеокарта, на одной и той же частоте отдают абсолютно одинаковое количество тепла, вне зависимости от того, какая у вас система охлаждения.

Да, но в случае воздушного охлаждения они выделяют тепло внутри корпуса ПК, а в случае водянки там, где стоит радиатор.

Не понял какую геометрию памяти. Под этой водянкой уже вторая видеокарта и третий процессор, пока водянку не выбрасывал.

Процессор — тут вопросов нет, там охлад стандартный. А память на видеокартах располагается по-разному, радиаторы между разными моделями несовместимы. Как вариант, конечно, можно память/мосфеты на видеокарте и не охлаждать водянкой, только чип накрывать, но вы же пишете, что


1)да, только ещё видяха будет иметь при этом высокую температуру, мне её жалко.

… а такой способ охлаждения её ушатывает куда больше, чем штатный радиатор с кулерами.


Да, но в случае воздушного охлаждения они выделяют тепло внутри корпуса ПК, а в случае водянки там, где стоит радиатор.

Да, и это тоже. Я же и говорю — водянка очень эффективно нагревает вашу квартиру в жару. К слову, лично у меня это вообще было проблемой, радиатор в верхнее посадочное место на корпусе не влез, только в переднее. Зимой ещё ничего, но летом ощущения были отвратительные, я вам скажу :)

ну да, новая видеокарта, новый водоблок на видеокарту. Неприятно конечно, но это не значит, что надо выбрасывать всю водянку.

Да, и это тоже. Я же и говорю — водянка очень эффективно нагревает вашу квартиру в жару.

И как она нагревает, если радиатор стоит вне квартиры (или вы думаете вода в нём замерзла когда он в квартире стоял?)

И как она нагревает, если радиатор стоит вне квартиры

Боже. Да, теперь паззл сложился. Нет, такое охлаждение действительно никому не нужно. Чесстное слово, делать дырки в окне, или что вы там сверлили, чтобы радиатор вывести, притягивать системник намертво к этому окну трубками водянки, менять водоблоки с каждой видяхой, иметь риск замерзания зимой (кстати, трубки ещё при замерзании в них жидкости лопнуть могут за милую душу), иметь риск перегрева машины летом (потому что радиатор в жару на улице в разы теряет эффективность), всё это далеко за гранью разумного.
И всё это, та-дам, ради плюс нескольких процентов мощности компьютера, которые вы при эксплуатации вообще никак, кроме синтетических тестов, не заметите.

делать дырки в окне, или что вы там сверлили,

На данный момент дырки в старом окне, его не жалко. При замене окна буду выводить под подоконник, тудаже вентиляцию.

притягивать системник намертво к этому окну трубками водянки

Там шланги, системник не намертво стоит.

иметь риск перегрева машины летом (потому что радиатор в жару на улице в разы теряет эффективность)

Поэтому радиатор большой.
Уж лучше пусть системник потеет, а не я.

1)не несколько процентов. По крайней мере зимой. даже когда летом я поменял IH-4400 на водянку, смог поднять частоту цп на 9%.
2)тишина

3)не надо системник от пыли чистить.
И да, я с вами соглашусь, что в текущем состоянии водянка это спорное решение. Но все эти спорные моменты решаемы.(к примеру неудобство обслуживание решается быстросцепами). Ну разве что кроме покупки водоблока к видеокарте... но чтобы получить тихую видеокарту надо заплатить оверпрайс за топовое решение, так что ценник выходит +- один. Что самое забавное последнюю видеокарту покупал во время майнинг бума, так видеокарта со встроенным водоблоком была самой дешевой.


А воздушное охлаждение это тупик. Оно имеет нерешаемые проблемы (если мы говорим про высокопроизводительные системы).

А воздушное охлаждение это тупик. Оно имеет нерешаемые проблемы

Знаете, как я стал противником водянок? У меня сдохла водянка и унесла с собой в могилу весьма тогда недешёвый 1080 Ti. Но противником я стал не в этот момент. Надо было работу работать, поэтому я комп поднимал максимально быстро. Я купил другую видяху, на проц посадил уже не помню какой Noctua, купленный по-быстрому на местной барахолке и… за копейки получил всё то же, что было с водянкой — полную бесшумность в обычном режиме, и небольшое шуршание во время игры (на которое мне все равно глубоко пофигу, ибо играю в наушниках), абсолютно нормальные температуры работы. При этом всё максимально просто, надёжно и при этом ещё и дёшево. Водянка нужна когда у вас какой-нибудь убермощный девайс, для которых кулеров просто в природе не существует. А так, даже для топового домашнего компа она просто бесполезна. Даже те плюс 9%, которые вы выжали из процессора, они вам ни на что не повлияют, по сути… ну кроме сокращения жизни процессора, ибо разгон на 9% — это все равно разгон, хоть и под водянкой.

Даже те плюс 9%, которые вы выжали из процессора, они вам ни на что не повлияют, по сути

влияют.

Я купил другую видяху, на проц посадил уже не помню какой Noctua, купленный по-быстрому на местной барахолке и… за копейки получил всё то же, что было с водянкой

1)Не совсем тоже.
2)с видяхой сложнее. Только для проца я бы тоже не заморачивался.

ну кроме сокращения жизни процессора

Единственный дохлый цп, который я видел сдох от статики (точнее я не знаю от чего он сдох, но статика видится наиболее вероятным вариантом, т.к. сдох он во время перестановки процессоров)
видел 2 глючных цп. однуму из них кристалл скололи, а что со вторым хз, но его не разгоняли.
была ещё парочка вроде как деградировавших цп, но при более внимательном рассмотрении оказалось что деградировали материнки.

Ага, именно по этой причине убрал водянку после года использования. Реально уже, читал в интернетах подобные истории и параноить начинал.

1) С пробитым мосфетом лотерея, т.к. он может убить и сам чип.

2) Чаще всего узким местом является именно чип. Ясное дело что с большим количеством памяти, на условно говоря 5-10 фпс будет больше, но если речь идет о 35 фпс в итоге, все равно надо понижать настройки, а это само по себе снижает требование к памяти.

А вот надёжность как то обошли стороной.

И правильно сделал. Потому что сначала выбирают "что", и только затем "где". Отталкиваться надо именно от соотношения цена/производительность, что автор и сделал. Если человеку требуется большая надёжность, то он возьмёт уже известную видеокарту того производителя которого он считает надёжным. И заплатит овердофига за надёжность. Если надёжность ему никуда не упёрлась, а важна только цена и производительность, то он возьмёт уже известную видеокарту по самой низкой цене на рынке в рамках выбранного ценового диапазона. То что покупатель будет через время будет покупать новую, это - его проблемы. Не мои, не ваши и не автора.

Среди ремонтников существует мнение, что AMD уступает в качестве NVIDIA, а некоторые модели красных, так вообще сыпятся.

Надежность несомненно стоит учитывать. Особенно 3060Ti на памяти Hunix от Palit, MSI и Gigabyte. Эти точно могут рейтинг сдвинуть, причем не в пользу НеВидео...


(но увы, CUDA есть только на них, и пока ML-сообщество не пересядет на ROCm — красные только для игрушек)

К счастью, есть транслятор. И если cuda нужна лишь время от времени, то, возможно, имеет смысл заморочиться.

А еще можно добавить на 3070 с памятью Самсунг, и греться будет меньше.

Надежность понятие вообще относительное и сейчас рандомное. По факту берешь деньги, открываешь магазин выставляешь планку сколько у тебя денег и покупаешь - все.

Видео это не звук, и покупается на 2-3 года, поэтому плюс минус 10% разницы никакой не сделает. Мне моего дохода всегда хватало брать хх60-70 серии нвидиа, просто продолжаю их брать и все. А уходить на амд причин нет скорее из за технологий и софта вроде куда, физикса, бродкаста, длсс и т.п, а на производительность пофиг. Если игра кривая, то никакая видяха не поможет.

Дело даже не только в том, что относительное и рандомное. Неясно в каких единицах её вообще измерять. Цену измеряют в рублях, производительность - в попугаях. Никогда не видел в Internet-магазинах функции "сортировать по часам наработки на отказ". Поэтому мне неясно, что по мнению критикующих автор должен был написать "про надёжность". Своё субъективное мироощущение разве что.

DNS показывает какой-то процент возвратов. За неимением другого - можно ориентироваться на него.

И цены не верные, 3060 с 12 гигами и 3х летней гарантией Озон стоит 29400 р.

3060 не ti - шлак и брать не рекомендуется (несмотря на 12Gb) - от них давно пытаются избавиться магазины

Более мощные видеокарты с менее чем 12Gb памятя тоже не особо производительны!

Цены на видеокарты Радеон до 70000 руб в статье в целом кажется несколько заниженными - реально (в Москве) они как минимум несколько дороже (а то и значительно дороже для ряда производителей)

А вот Радеон RX7900 XT действительно сейчас можно найти менее чем за 70К рублей, что странно, даже RX6900 XT есть дороже

(ЗЕЛЁНАЯ) Цена на видеокарты на Озон "вкусная" только по карте Озон - иначе они такие же как и в других крупных магазинах и маркетах. На Яндексе может быть ещё дороже - ну там всё стало дороже как появилась продажа "со сплитом" - так что там смотреть и приобретать смысла нет

Так какую видеокарту взять для нейросетей? Желательно, чтобы она была бюджетная, до 50к.

из стана nVIDIA любую и последнего/предпоследнего поколения, что влезет в бюджет (ориентируйтесь на число тензорных ядер или на число ядер CUDA), ибо для нейросетей лучше QUDRO - но в бюджет они не влезут (альтернатива - RTX 4090 - но тоже не бюджетно)

3060 не ti - шлак и брать не рекомендуется (несмотря на 12Gb)

Откуда такие данные? Отличная видеокарта(особенно для фулл хд), все игрушки летают, для ребенка хватит на еще лет на 5, особенно с учетом в какие игрухи дети сейчас играют.

Оценка только в сравнении с другими примерно одноклассники картами в примерно том же ценовом моменте.

А так да - карта вполне играбельная. но всё дело в эффективности! Тут архитектура была не очень удачной и драйвера под эту карту более не оптимизируются (как и игры) - просто она в практических задачах не может раскрыться полностью на фоне других решений

Я правильно понимаю, что CUDA все еще на NVidia и если хочется поиграться с нейросетками и популярными фреймворками - то это только NVidia или под AMD тоже уже подтянули?

Да, обычно есть две опции - запустить на CPU или запустить на Nvidia, плюс нерабочие советы по запуску на картах AMD. Как бывший владелец карты от AMD говорю: со всем что связано с нейросетями на них не поиграться.

Ну, с некоторым поиграться, но в абсолютно большинстве случаев это будет инструкции уровня "Вам необходимо принести в жертву Бафомету своего первенца и любимую кошку, и тогда у Вас появится шанс запустить Stable Diffusion под AMD"

Зависит от задач, тот же stable diffusion можно запускать на AMD видеокартах и под линуксом и под виндой сейчас без особых проблем, и даже на встройке, и даже без каких-то сложных инструкций.


Прямой аналог CUDA это ROCm (hip), многие популярные библиотеки уже умеют работать с ним (tensorflow-rocm, pytorch, onnx), другие начинают его добавлять. Пока, в основном, это только под линукс. Почему в основном, потому что в блендер hip под винду уже добавили, а в следующей версии rocm 5.6.0 обещали альфа поддержку винды в целом, не известно только когда она выйдет.


Другие варианты для винды — это directml и vulkan, популярные нейросети часто могут иметь либо форки, либо изначально имели поддержку.
Ищется через название + ncnn-vulkan. Например, нейросеть для дорисовывания кадров для 60fps RIFE (более качественная чем DAIN), изначально только для CUDA, но есть форк rife-ncnn-vulkan, работающий на любых видеокартах.

А что стало с OpenCL?

Неправильно построена статья. Нужно начинать с того какая есть система, какой монитор и какое требуется качество картинки. А потом уже для этих условий и советовать конкретные карты. Если там какой-нибудь монитор 1920*1080 60 герц и какой-нибудь легендарный i7-2700K, то нет никакой разницы между GeForce 1080 и GeForce 4090. А у AMD RX6600 будут большие проблемы с pci express шиной.

Не всем видеокарта интересна для качества картинки. Тем не менее разница в вычислениях меж GF1080 и RTX4090 будет более чем заметна.

Про вычисления в статье вообще ни слова. Если качество картинки не интересует, то есть встройка.

Информация по тактовым частотам неверная. Благодаря технологиям авторазгона каждая конкретная видеокарта бустится по-своему. А еще это зависит от установок в БИОСе от производителя и подсистемы питания.

Нужны лучи или не нужны лучи - это вообще кардинально меняет весь расклад. Фактически только 30 и 40 серия от NVIDIA.

3090 на вторичке, за 50к самое оптимальное, сам продал свою 3070 и купил 3090, 24 Гб позволяют загрузить 30b 4-bit модель и одновременно SD и все это будет работать

Неправильно построена статья. Нужно начинать с того какая есть система, какой монитор и какое требуется качество картинки

Я, например, смысла в этом не вижу. Понятное дело, что никто всерьёз не рассматривает покупку 4090 на i7-2700K, такие маргинальные случаи можно в расчёт не брать, а для более-менее современных машин разница между топовыми и не топовыми картами очень даже есть.
А по качеству картинки там ничего, заслуживающего внимания, нет. Для обычной работы принципиальной разницы между современными карточками вы не заметите, и даже между дискретной и встройкой уже разницы нет. А в 3D играет роль только производительность, которая достаточно линейно коррелирует с ценой, к более дорогим ещё опцией лучики добавляются. Ну и в редких случаях играет роль наличие/отсутствие CUDA.

Огромная разница по качеству картинки. Если человек готов играть без сглаживания, анизотропной фильтрации и лучей, с текстурами минимального размера, то это одно. По большому счету сгодится любая карта. Если человеку подавай самую красивую картинку, то исключительно топовые и предтоповые карты.

Если человек готов играть без сглаживания, анизотропной фильтрации и лучей, с текстурами минимального размера, то это одно.

Ну так это не про качество, а про бюджет. Все видеокарты в данном обзоре умеют в сглаживание, анизотропную фильтрацию и текстуры большого размера, и почти все — в лучи. А в остальном математика простая — чем ваша карта дороже, тем большее разрешение вы себе можете позволить с комфортным FPS и высоким качеством картинки.

К подходу выбора оборудования можно по разному подходить. Но большинство покупателей отталкивается от бюджета. И для игрового компьютера тут правильно отталкиваться сначала от видеокарты, а уже под неё подбирать всё остальное. Но тем, кто апгрейдит старое железо путём только замены видеокарты можно лишь посочувствовать и.... опять же пусть отталкиваются от бюджета - в таких случаязх очень редко смотря на топовые видеокарты, но пытаются максимально поднять производительность из того что есть - тогда совет всё тот же - выбирать видеокарту на которую есть бюджет (если бюджет большой - от 80К - то тут лучше его всё-таки чуть увеличить хотя бы до 100К и проапгрейдить почти весь системный блок (ну там БП и диски уже по обстоятельствам менять, корпус можно не менять), ну или ставить видюху помощнее, в расчёте на то, что в недалёком будущем будет апгрейд.

Единственное, над чем надо следить при апгрейде только видеокарты - это за версией PCI - чтобы новая видюха работала на имеющимся PCI (и надо понимать, что мощная видюха, даже поддерживающая более старую версию PCI не сможет на ней полностью раскрыться - и полный апгрейд компа в ближайшее время неизбежен).

Единственное, над чем надо следить при апгрейде только видеокарты — это за версией PCI — чтобы новая видюха работала на имеющимся PCI

Вот как раз на это смотреть вообще не нужно при апгрейде видеокарты. Версия PCI оказывает сколь-нибудь заметное влияние в том случае, если вы взяли мощную видеокарту, и запустили на ней что-то в режиме низкого качества, чтобы FPS был под пару сотен. Тогда на шину ложится больша нагрузка, и её производительность начинает играть роль. А в обычном режиме, когда у вас на мощной карте всё включено на максималки, и она там 60-70 кадров выдаёт, она и PCI-e 3.0 x16 не загрузит под завязку.

Тесты говорят, что разница для 4090 между 3.0 и 4.0 составляет аж 2% в пользу последней шины. И это 4090 — карта, которая максимально утилизирует шину из всех ныне имеющихся.

Вы уверены, что 4090 как раз та карта, что максимально утилизирует шину PCI-E?

По мне, так в большинстве задача объёмы данных, перегоняемых по шине для этой карты в среднем не так уж велики за единицу времени, с её то гигантским объёмом памяти - загрузил данные статические и всё, далее в основном только инструкции, в т.ч. по формированию новых данных без выхода за пределы карты - и лишь малая часть выходит в качестве продукции обратно через PCI-E.

И, если как раз грузить видюху специальными тестами, то тем удаётся лишь немного больше догрузит 4090 в сравнении с 3090.

И тут, во многом, всё дело в развитии софта - лишь новое ПО (в т.ч. игры) будут подстраиваться под новые видеокарты и их возможности, т.ч. шину PCI

А для тех, кто выбирает 4090 даже прирост в 2% в текущих проектах может быть очень существенным

Вы уверены, что 4090 как раз та карта, что максимально утилизирует шину PCI-E?

Ну так карта, которая максимально быстро обрабатывает данные, она же максимально быстро требует и новую порцию данных.


И тут, во многом, всё дело в развитии софта — лишь новое ПО (в т.ч. игры) будут подстраиваться под новые видеокарты и их возможности, т.ч. шину PCI

Ну как бы PCI сейчас — десятая в очереди характеристика видеокарты, которая ей достаётся просто по наследству "сейчас вот такая шина на материнках", а не является основной. Задача видеокарты в том, чтобы загрузить данные и потом их обработать, даже задача "вернуть" не стоит, это какой-то суперспецифический сценарий должен быть, т.к. ни майнинг, ни нейронки, ни какие-то физические вычисления не предполагают возврата сколь-нибудь заметных объемов данных, результат всегда на порядки меньше обрабатываемого массива. И вот это "обработать", оно как правило, многократно тяжелее, чем "загрузить", будь-то игры, майнинг, нейронки.

Как уже сказа - тут многое зависит от объёма памяти видеокарты. Поток инструкций обычно не такой уж большой, а вот поток обрабатываемых данных.... и обычно эти данные (основной их объём) неплохо так могут кэшироваться (намеренно загружаться) в память видеокарты - вот тут и играет роль, с одной стороны объём памяти видеокарты, с другой стороны софт, управляющий этим процессом и настроенный на то, чтобы грузить в видеопамять побольше данных.

В 4090 влезает много, так что ей большая шина PIC)-E в большинстве случаев сейчас не шибок принципиальна. А вот в 3060 и старше (до 3090; хотя PIC 5.0 они не поддерживают) памяти не так уж много 8Gb (в лучшем случае 12Gb) - то что более 12Gb, в общем-то, в большинстве актуальных случаев, им особо то и не надо (тут по косвенным причинам они просто не нуждаются в обработке таких больших объёмов - условно через PCI-E они могут вполне получать новые порции данных со скоростью не ниже, чем параллельная их обработка). Но всё-таки это всё очень зависит от самого ПО, эксплуатирующего эти видеокарты.

Итого, закругляя тему, я не говорю что PCI 4.0 уж больно морально устаревший интерфейс - его вполне достаточно сейчас. Но уже в ближайшие годы выйдет новое ПО и новые карты (пусть не 4000 серия от джефорса, так следующая) коим этот интерфейс будет уже немного маловат. Более дешёвым видеокартам может не хватать видеопамять и они будут чаще загружать данные, более дорогим потребуются более объёмные данные и опять же может не хватать видеопамяти чтобы их закешировать (или обработка будет в реальном времени получаемыми порциям) - вот тут PCI 5.0 будет уже в приоритете. Наврядли на много - но многим и прироста в 10-20% на среднепроизводительных картах уже будет неплохо, ну а топовые решения будут довольствоваться 4-6% прироста (просто для них PCI-E интерфейс не такое уж узкое место, он и сейчас уже достаточно производителен для работы даже с быстрыми картами), но топовые видеокарты и берут ради получения 5-10% преимущества над предтоповыми видеокартами - это совсем иной сектор потребления!

Как уже сказа — тут многое зависит от объёма памяти видеокарты.

Согласен, но фишка в том, что объем памяти видеокарты очень сильно коррелирует с производительностью установленного на ней чипа. Производители не ставят мало памяти на карты с мощными GPU.


Но всё-таки это всё очень зависит от самого ПО, эксплуатирующего эти видеокарты.

Вот то-то и оно. Мы сейчас с вами обсуждаем потенциальную проблему производительности, которая может быть, когда-то там, затронет какое-то ещё не существующее ПО, которое до сих пор не появилось, и вполне вероятно, никогда и не появится. Т.к. лучшие современные карты даже в возможности PCIex 3.0 x16 ещё не упёрлись.

очередная подборка видеокарт для игр. но сейчас в тренде нейросети. особенно на it ресурсе.
видеокарт amd и intel что бы опробовать нейросети потребуют дополнительных усилий так же как Nvidia с памятью меньше 8 гб.
rtx начиная с 20 дают заметный прирост скорости работ для задач связанных с нейросети.
каждая последующие серии(30, 40) дают по сравнению с предыдущей ~2-кратный прирост скорости, а так же могут дать возможность использовать более компактные модели.
при этом все игроки, блогеры и т.п. удивляются например отсутствия прироста характеристик видеокарт новых серий rtx, но прирост значительный именно по работе с нейросетями.
как бонус Nvidia выдаёт бюджетные модели с неплохим объемом памяти rtx 3060 12гб и rtx 4060 ti 16гб как раз для развития тренда нейросетей. хороши для обучения и последующего при перерастания создания спроса на более мощные видеокарты.

Плюсую обеими руками. Сам в этом году впервые в жизни купил не Radeon.

Пример Stable Diffusion и ChatGPT показал, что в любой момент может внезапно появиться нейронка, которая сразу станет строго необходимой именно в вашей профессии. При этом в условиях неопределённости совместимость (с CUDA и по объёму памяти) приоритетнее производительности.

Так что в 2023 нужно брать GeForce с большим объёмом памяти.

Хочется в этот тред пригласить @LordDarklight. Очень интересно, почему 3060 это "шлак" и чем бюджетным можно заменить на задачах ИИ, давайте обсудим)

3060 не ti оказалась не удачно сбалансирована - карта то нормальная - но по цене/качество - вышел шлак на фоне других предложений; в итоге nVIDIA на неё забила - давно сняла с производства чипы и не опттмизирует под неё драйверы.

Поэтому по деньгам чуть дороже карты имеют существенный отрыв!

очередная подборка видеокарт для игр. но сейчас в тренде нейросети. особенно на it ресурсе.

А дальше обсуждение игровых карт и ни одного упоминания Quadro. Понятно.

А чем Квадро лучше обычных игровых карт для любого домашнего применения, учитывая, что чип там тот же самый, немного перебалансирована производительность, и основательно перебалансирована цена?

Пере балансированная производительность - это для нынешних видеокарт много значит.

Quadro карты ориентированы на совсем другие условия эксплуатации - в первую очередь на обработку большого потока данных. Для этого увеличивают число вычислительных блоков и существенно подымают объёмы памяти.

Ну и тут совсем иная настройка драйверов и оптимизация прикладного ПО под именно архитектуру Quadro (да - серьёзные промышленные производители делают оптимизацию своего ПО не только под Quadro - но и под некоторые игровые видеокарты - но очень ограниченно и игровые видеокарты быстро выходят из списка оптимизации в будущих версиях софта, в отличии от Quadro). Поэтому для разных задач эффективно выбирать соответствующие им решения.

Но да Quadro значительно дороже и эта оптимизация может быть не очень оправдана в сравнении с топовыми игровыми видеокартами - поэтому топовые видеокарты всегда были хорошей альтернативой для Quadro по производительности - вот только дальше надо смотреть на тепловыделение, уровень шума, количество занимаемых слотов, потребляемую мощность, количество выходных портов (и поддерживаемые разрешения картинки) и, порой, не забывать о долговечности и технической поддержке (всё же Quadro более узкий сегмент, считай корпоративный, с более индивидуальной поддержкой, правда майнинг тут сильно нанёс ущерб по гарантийному ремонту - раньше было проще; и остаточная стоимость Quadro быстрее снижается - если перепродавать как б/у - ведь изначально новые Quadro редко эксплуатируют после истечения гарантийного срока)

GPU Compute Benchmark Chart

Если выбрать вкладку Price Performance, Квадры оказываются на каком-то совершенно невероятном дне.

я и не утверждал обратного

под именно архитектуру Quadro

Подождите, но ведь не существует никакой "архитектуры Quadro". Quadro — это те же самые карты, что и GeForce, там отличия в выставленных в BIOS частотах чипа и памяти, плюс залочка их изменения, ну и в драйверах. Из аппаратного там разве что памяти в некоторых моделях больше накинуто, да кулер другой конструкции. ИМХО, покупать Quadro есть смысл только в том случае, если вы это делаете либо на барахолке по низкой цене, или на работу за деньги компании. В остальных случаях разница в характеристиках между Quadro и соответствующей моделью из линейки GeForce ничтожна по сравнению с разницей в цене.

А как же двойная точность? Серверные карты имеют производительность 1/2 на fp64, когда обычные пользовательские ограничены на 1/8. Для нейросетей это неважно, 64бита точности для них не нужно. А вот научные вычисления, для них существенно. По крайней мере так было лет 5 назад, до нейронок.

Хм... а вот интересная тема - действительно - у RTX 4090 CUDA блоков высокой точности FP64 с гулькин нос по сравнению с FP32 ядрами (FP16 ядер вообще нет зато есть какая-то-то оптимизация, позволяющая всё-равно выполнять их не медленнее FP32 - я тут не понял - вроде по статье следует что в 2 раза быстрее, иначе смысла нет, но в таблице указан коэффициент один к одному).

Подробных спецификаций по актуальной, но ещё не вышедшей nVIDIA RTX 6000 ещё нет. Но можно сравнить по прошлому поколению (Ampere) для GeForce RTX 3080 ti

Производительность FP16 = 34.10 Тфлопс

Производительность FP32 = 34.10 Тфлопс

Производительность FP64 = 532.8 ГФлопс

и Quadro RTX A6000

Производительность FP16 = 38.71 Тфлопс

Производительность FP32 = 38.71 Тфлопс

Производительность FP64 = 210 ГФлопс

Очень странные значения на сайте для FP64

Посмотрел более раннюю (на Turing) Quadro RTX 8000 

Производительность FP16 = 32.62 Тфлопс

Производительность FP32 = 16.31 Тфлопс

Производительность FP64 = 509.8 ГФлопс

явно что-то не так - поэтому посмотрел на другом сайте (и нашёл там более актуальный для сравнения GeForce 3090 ti)

GeForce RTX 2080 Ti Turing

FP16 (half) = 26.90 TFLOPS (2:1)

FP32 (float) = 13.45 TFLOPS

FP64 (double) = 420.2 GFLOPS (1:32)

GeForce RTX 3080 Ti Ampere

FP16 (half) = 34.10 TFLOPS (1:1)

FP32 (float) = 34.10 TFLOPS

FP64 (double) = 532.8 GFLOPS (1:64)

GeForce 3090 ti Ampere

FP16 (half) = 40.00 TFLOPS (1:1)

FP32 (float) = 40.00 TFLOPS

FP64 (double) = 625.0 GFLOPS (1:64)

GeForce RTX 4090 Ada

FP16 (half) = 82.58 TFLOPS (1:1)

FP32 (float) = 82.58 TFLOPS

FP64 (double) = 1290 GFLOPS (1:64)

GeForce RTX 4090 Ti Ada

FP16 (half) = 95.42 TFLOPS (1:1)

FP32 (float) = 95.42 TFLOPS

FP64 (double) = 1,491 GFLOPS (1:64)

Quadro RTX 8000 Turing

FP16 (half) = 32.62 TFLOPS (2:1)

FP32 (float) = 16.31 TFLOPS

FP64 (double) = 509.8 GFLOPS (1:32)

RTX A6000 Ampere

FP16 (half) = 38.71 TFLOPS (1:1)

FP32 (float) = 38.71 TFLOPS

FP64 (double) = 1210 GFLOPS (1:32)

RTX 6000 Ada

FP16 (half) = 91.06 TFLOPS (1:1)

FP32 (float) = 91.06 TFLOPS

FP64 (double) = 1,423 GFLOPS (1:64)

Можно сделать вывод что в рамках одной архитектуры Quadro считает быстрее чем Титановые джефорсы (но *090 ti серии считаю ещё быстрее квадров, но только с точностями FP16 и FP32)

Но с точностью FP64 начиная в архитектуре Amper Quadro карты считают значительно быстрее (поосто коэффициент падения производительности при удвоении точности у жефорсов стал в 2 раза выше, относительно архитектуры Turing, не не у квадров)!

А вот в fрхитекутре Ada Lovelace опять пееревернулось - опять титановые жеворсы 4090ti считают быстрее квадров, а не титановые 4090 незначительно медленнее. И в этой архитектуре коэффициент падения производительности при удвоении точности у всех карт одинаковый (у квадров он в 2 раза стал выше чем на архитектуре Ampere).

Вот такие вот пироги - делайте выводы.

P.S.

У Tesla вычислительные способности вообще не блещут

Tesla T4 Tesla Turing

FP16 (half) = 65.13 TFLOPS (8:1)

FP32 (float) = 8.141 TFLOPS

FP64 (double) = 254.4 GFLOPS (1:32)

Tesla T10 Tesla Turing

FP16 (half) = 17.14 TFLOPS (2:1)

FP32 (float) = 8.571 TFLOPS

FP64 (double) = 267.8 GFLOPS (1:32)

Tesla T40 Tesla Turing (ещё не вышла)

FP16 (half) = 28.75 TFLOPS (2:1)

FP32 (float) = 14.38 TFLOPS

FP64 (double) = 449.3 GFLOPS (1:32)

Все значения расчётные, а не из реальных бенчмарков :-(

Немного поискал и нашел вот этот тред на реддите.
FP16/32/64 for some common AMD/Nvidia GPU's
Последнее обновление в сентябре 2022, так что без 40 серии.
Производительность FP64 от 1/2 до 1/32 для тесл и инстинктов. На геймерских картах 1/64 и 1/32.
И особняком стоит TESLA K80, c 1/3. Но это карта 2014 года, до бума нейросетей. И производительность на FP64 такая же, как у А6000, при 20 кратно низкой цене.

Надо признать что RADEON VII Instinct уникальный ускоритель с очень высокой производительностью вычислений с двойной точностью даже для текущего времени (а вышел он в 2019), и ориентирован он именно на вычисления (FP16 и FP32 тоже считает неплохо, почти на уровне RTX 2080TI того же времени; но в играх этот ускоритель не преуспел). Аналогов больше, наверное, нет (но я в амдешном железе не шарю).

Но замечу, что двойная точность - это очень специфическая вещь - в играх почти не востребовано (из-за более низко

Надо признать что RADEON VII уникальный ускоритель (с прорывным для своего времени техпроцессом в 7нм) с очень высокой производительностью вычислений с двойной точностью даже для текущего времени (а вышел он в 2019), и ориентирован он именно на вычисления (FP16 и FP32 тоже считает неплохо, почти на уровне RTX 2080TI того же времени; но в играх этот ускоритель не преуспел). Аналогов больше, наверное, нет, даже серия Radeon Instinct несколько о другом

RADEON VII Vega 20

FP16 (half) = 26.88 TFLOPS (2:1)

FP32 (float) = 13.44 TFLOPS

FP64 (double) = 3.360 TFLOPS (1:4)

Но замечу, что двойная точность - это очень специфическая вещь - в играх почти не востребовано (из-за существенно более низкой производительности) - в основном только на инженерного рендеринга и вычислений, требующих повышенной точности в ущерб производительности.

Для нейронок такая точность не нужна - для нейронок нужна точность FP16 - если будет быстрее FP32 - но сейчас они обычно одинаковы с FP32, за исключение серии Tesla - там FP16 быстрее FP32 (даже быстрее чем на современных игровых ускорителях топового уровня). Впрочем у AMD есть свой ответ на Tesla:

Radeon INSTINCT MI100 Arcturus - там вообще запредельный FP16

FP16 (half) = 184.6 TFLOPS (8:1)

FP32 (float) = 23.07 TFLOPS

FP64 (double) = 11.54 TFLOPS (1:2)

!!! Instinct MI150 - на Reddit - это

Radeon Instinct MI50 Vega 20 (чуть более старая чем RADEON VII, хотя тоже 7нм - производительность у них схожая, но FP64 MI50 выдаёт в 2 раза выше)

FP16 (half) = 26.82 TFLOPS (2:1)

FP32 (float) = 13.41 TFLOPS

FP64 (double) = 6.705 TFLOPS (1:2)

Radeon Instinct MI250X Aldebaran - более современная карта - другое дело (обратите внимание на FP64 - но тут два кристалла GPU в одном корпусе)!

FP16 (half) = 383.0 TFLOPS (8:1)

FP32 (float) = 47.87 TFLOPS

FP64 (double) = 47.87 TFLOPS (1:1)

Но и цены на эти Инстинкты просто запредельные!!! Как и тепловыделение!!! И я хз где и за сколько его можно купить 250 серию!

вот тут ещё сводная таблица про актуальные Инстинкты (и сравнение с nVIDIA A100)

FP16 (half) = 77.97 TFLOPS (4:1)

FP32 (float) = 19.49 TFLOPS

FP64 (double) = 9.746 TFLOPS (1:2)

Согласен, термин архитектура не правильный, но как ни странно, его употребляет сама nVIDIA на своём сайте. И более того, в последнем поколении они отказались и от термина Quadro (а ранее ещё и от термина GeForce который тоже был у Quadro видеокарт). У современных "Quadro", а ныне просто RTX 6000 (даже без буквы A перед числом) архитектура такая же как и GeForce RTX 4000-cерии - Ada Lovelace (как было и ранее Ampere, Turing, Pascal...). Правда видеокарта nVIDIA RTX 6000 пока не вышла и тут нечего сравнить даже с GForce RTX 4090.

С остальным согласен - для рядового потребителя QUADRO прошлых поколений и уж тем более RTX 6000 слишком переоценены (особенно в России) и теряется весь смысл их приобретения.

Для более же профессионального именно вычислительного процесса (для дата центров, без функции прямого рендеринга) есть архитектура nVIDIA Tesla и актуальная T4 (хотя по сути это всё-таки архитектура Turing). А на подходе архитектура nVIDIA Hopper (по сути уже производится nVIDIA H100) - вообще специализирующаяся на нейросетях (но эти карты в России не достать официально) - вот это уже 100% отдельная архитектура, очень отличная от остальных.

Кстати, вот эту T4 как раз-таки тоже вполне можно было бы использовать для построения нейросетей - она для этого и спроектирована (но H100 безусловно намного круче будет) - но графический рендеринг напрямую они не выполняют - хотя могут выполнять просчёты (условно не в реальном времени, хотя на рантайм тоже рассчитаны)

Для более же профессионального именно вычислительного процесса (для дата центров, без функции прямого рендеринга) есть архитектура nVIDIA Tesla

Даже архитектура Tesla имеет те же "особенности", что и Quadro. У меня в кладовке ещё лежит пара несвежих тесл поколения Maxwell. Я на них играл в период майнинговой лихорадки, когда это были единственные достаточно мощные карты, которые можно было дёшево купить, потому что они не годились ни для майнинга (Maxwell ввиду своей организации выдавал аномально низкий хешрейт без всяких там блокировок), ни для игр (ибо Тесла, как приличный вычислитель, не оборудована видеовыходом). Если с неё скрутить модный красивый радиатор (предназначенный для установки в серверные корпуса), открывалась плата GeForce Titan X с некоторыми нераспаянными элементами, и наоборот, распаянными, которые отсутствуют на настоящем Титане. Ну т.е. железо у них общее. А софтово — установка правильного драйвера и некоторое подшаманивание в реестре, и вычислитель превращался в игровую карту.
Паскалевские Теслы я в руках держал, там то же самое. Более поздние уже не пользовал, ибо цена там улетает в космос даже сейчас, но полагаю, что они вряд ли отошли от выгодной концепции "разработать одну и ту же карту, и продавать её в самые разные сегменты рынка".

Тесла пошла в отрыв по архитектуре начиная с Turing - но до сих пор это.... всё тот же Turing - даже на картах, ожидаемых в 2023(24) году. Но это базовая архитектура. А по факту они там блоки перекраивают по разному - честно я не знаю как это всё физически устроено, но настройки блоков разные, как и разное внутреннее программное обеспечение и драйверы!

Если говорить о современном "Quadro" и GeForce - то по сути это всё одно и тоже и тут сейчас действительно практически нет никаких различий. Это началось с эпохи *090 карт (ранее условно *080 был топ (потом ещё ti версии появились). Сейчас же "Quadro" (а от этого названия, кстати nVIDIA ещё в прошлом поколении отказалась) - это почти тоже самое что 4090 (3090 для предыдущего поколения) - и разница тут только в настройке драйверов (и небольшой перебалансировке CUDA блоков; а так же в отбраковке чипов и последующем сервисном обслуживании, хотя гарантийные сроки идентичные). Но вот 3090ti - мощнее актуальной "Quadro" RTX A6000 (не знаю как реально будет в Ada поколении, но теоретически 4090ti будет мощнее RTX 6000 во всём... кроме разной калибровки уже под конкретные задачи - в играх явно победит 4090ti (и даже 4090 скорее всего будет хоть немного но в целом быстрее), но в расчётных задачах, оптимизированных именно под проф карту, скорее всего победит RTX 6000 (несмотря на то что технически RTX 4090ti немного мощнее). Но не думаю, что этот перевес будет существенным. А вот цены будут существенно выше на RTX 6000 - но, думаю, и надёжность, стабильность этих карт будет существенно выше, а брак ниже - это просто другой уровень потребления, где неоправданные ожидания легко не прощают.

Новая Tesla T40 будет уступать всем - даже общем случае RTX 3080 - так как это всё тот же Turing - но Tesla это куда более специализированная карта - у неё более узкие задачи (графическим рендерингом она не занимается) и от неё требуется ещё большая надёжность - и эти карты (за счёт более простой архитектуры) будут дешевле новых "Quadro" RTX 6000 - по идеи должны быть и дешевле RTX 4090ti, RTX 4090 (и даже RTX 3090ti и RTX 3090), но куртка очень жадный, так что это вряд ли, но хоть незначительно дешевле, чем RTX 6000, должны быть - в этом их суть - их не используют по одиночке, или даже в SLI паре - из них создают кластеры из десяток карт на специализированных мат платах (и тут даже на мелкооптовые закупки должны быть хорошие скидки) - вот такие вычислительные кластеры будут обходиться немного дешевле, чем RTX картах, при куда большем вычислительном потенциале и надёжности - но только в узкоспециализированных задачах

у неё более узкие задачи (графическим рендерингом она не занимается)

Почему? Тесла работает и как вычислитель, и как GPU. Только в её случае это не GPU для локального применения, а серверный GPU под виртуализацию. Например, когда инжЫнеры свои чертежи рендерят централизованно на сервере, под это тоже тесла рассчитана.

Чисто как рендерер Тесла слабоват уж больно - хотя виртуальный рендеринг да она могёт, и в класстерах работает очень продуктивно

Не знаю, как сейчас, но моя М40 в играх работала точно так же, как и Титан Х, с поправкой на разницу в частотах. Ну т.е. карта как карта.

или на работу за деньги компании

Я напомню, что, во-первых, с этого и началась эта нить обсуждения, а, во-вторых, это и есть то, что понимается под профессиональным использованием. В отличие от RTX, которая про "лучики в КаЭске".

И да, я наблюдал за тем, как Хабр был недоволен майнерами, скупавшими их "игровые" видимокарты, что аж не поиграть. Я, может, пропустил парочку комментариев (немудрено среди сотен других), но за период 2020-2023 ни разу в обсуждениях под новостями и статьями про дефицитный дефицит видимокарт не видел жалобы на то, что невозможно теперь достать счётную машинку для того, чтоб математику погонять. А про игры -- полно.

что невозможно теперь достать счётную машинку для того, чтоб математику погонять

Потому что математику из нас реально гоняет один на стопицот (хотя думает "а неплохо бы нейронками поиграться" хотя бы один из десяти точно, но до дела не доходит), а играет каждый второй.

домашнего применения

Даже не знаю, как ответить на вопрос, не относящийся к:

но сейчас в тренде нейросети

Пожалуй, если вопрос ставить как "чем квадра лучше того, что я не обсуждал", то ответ может быть любым, будем счетать, у нас тут Undefined Behaviour. Если вопрос ставить "чем квадра лучше для любого профессионального применения?", то ответ на поверхности: это прямо проистекает из таргетирования квадры ее производителем и, полагаю, некоторой большей заботой о качестве и надежности. Это, правда, предположение, но, думаю, если б квадры были таким ненадёжным отстоем, их бы уже даже на сайте невидео давно выпилили, дабы поскорее забылся этот позор.

это прямо проистекает из таргетирования квадры ее производителем

Ну это такой себе аргумент. Сколько раз уже производители искуственно сегментировали рынок, только чтобы собрать побольше денег с тех, с кого можно? Вполне может быть, что эти "профессиональные" карточки вообще ничем не лучше, или лучше чисто косметически, но стоят очень сильно дороже. А обычные карточки бизнесу использовать нельзя по EULA. Как, например, нельзя было обычные игровые карты NVIDIA использовать в серверах для облачного гейминга. Только потому что у нвидии от этого недополученная прибыль.


Вполне может быть, что можно такую же производительность получить, купив 2 игровых видяхи сильно дешевле, а то и почти такую же, взяв одну топовую карточку. Поэтому надо именно сравнивать характеристики/цены/потребление энергии. Нельзя говорить, что эта карточка для профессионалов лучше только потому что нвидия ее так позиционирует.

Вполне может быть

Но подтверждать мы это, конечно же, не будем.

Я вот сравнил на сайте невидии:

RTX 4090:

- CUDA cores: 16k

- memory bandwidth: 386 bit

- SLI/NVLink: no

- power consumption: 450W

- memory amount: 24GB

Quadro GP100:

- CUDA cores: 5120 (допустим, это минус по числу именно CUDA)

- Tensor cores: 640 (запишу в плюс, потому что для 4090 этого показателя нет вообще)

- memory bandwidth: 4096 bit (это что-то запредельное)

- memory speed: up to 870GB/s (полагаю, у 4090 сильно меньше, иначе б там тоже понтовались)

- ECC: yes (у 4090, очевидно, нет, иначе б были понты прямо в даташите)

- NVLink: up to 2 Quadro cores at 200GB/s (не написано: всего или на каждый, впрочем, это всё равно больше, чем 0 у 4090)

power consumption: 250W (жрёт меньше при том, что позволяет больше)

По даташитам выглядит, как сильно круче, чем игровая 4090 (в профессиональных задачах)

PS:

Это, конечно, не абсолютно любое промышленное применение, но: No Datacenter Deployment. The SOFTWARE is not licensed for datacenter deployment, except that blockchain processing in a datacenter is permitted.

(запишу в плюс, потому что для 4090 этого показателя нет вообще)

512 тензорных ядер там, но работают они на частоте, в два раза большей, чем GP100. Это же касается и ядер CUDA.


memory bandwidth: 4096 bit (это что-то запредельное)

Запредельное, ибо HBM, но у 4090, с её унылой 384-битной шиной, скорость шины памяти 1008 GB/s, против этих 870 GB/s, несмотря на все эти 4096 бит. К слову, такая же 4096-битная шина была у первой видяхи с HBM — Radeon R9 Fury. Не могу сказать, что она там прям разрывала своего более традиционного конкурента GeForce 780, ну чуток опережала, пыхая жаром.


ECC: yes (у 4090, очевидно, нет, иначе б были понты прямо в даташите)

Понты в даташите ограничены внутренней конкуренцией продуктов. У карт с памятью GDDR6X коррекция ошибок имеется, ну т.е. речь идет и про разного рода GeForce 3xxx, и про GeForce 4xxx.
И хотя в данном случае вы сравниваете уже не свежую квадру со свежей топовой игровой картой (которую "в лоб" по производительности 4090 просто уничтожает), все равно даже возьмите вы свежую квадру, там будет либо примерный паритет характеристик с кратным превышением цены у квадры над игровой, либо этак +20% в производительности, но уже с аццким превышением цены.

И хотя в данном случае вы сравниваете уже не свежую квадру со свежей топовой игровой картой

https://www.nvidia.com/en-us/design-visualization/desktop-graphics/

Она там единственная квадра, может быть, есть и другие, но я как-то с разбегу не нашёл, где они их держат в их очень увлекательном веб-сайте с интересными конкурсами и закоулками.

Но, пожалуй, разница поколений объясняет, почему квадра не выглядит как болид формулы 1 против Москвич-412 на четверть-мильном заезде по прямой.

Что касается понтов из-за внутренней конкуренции: а точно там нет такого же процесса, как в Штеуд? Типа: внутренний контроль отбраковал чип по стабильности, он больше не может претендовать на маркировку Quadro. Более того, показатели настолько плохие, что он не может претендовать даже на 4090, и на 4080 не может. Возможно, к выходу 4070 даташиты на этот чип позволят этому замыхрышке влезть в параметры, тогда его даже не выбросят, а очень даже продадут.

Что касается понтов из-за внутренней конкуренции: а точно там нет такого же процесса, как в Штеуд?

Потому что чипы там действительно одни и те же, но режимы разные. В квадры идут модели с чуть большим количеством ядер, но работающие на более низких частотах. Вероятно, это даже не отбраковка, потому как зарядить все ядра и на частотах 4090 — чип просто по TDP не вытянет.


Вот, кстати, современный аналог 4090 из линейки Квадро — тут как раз чуть больше ядер, меньше частоты, зато и TDP меньше. И шестикратное преимущество в одинарной точности над GP100, и десятикратное по тензорным вычислениям.
https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/proviz-print-rtx6000-datasheet-web-2504660.pdf
Примерно такая же производительность и у 4090, но цена — в четыре раза ниже. Вот такая вот забавная математика.

Но подтверждать мы это, конечно же, не будем

А чего подтверждать, если там одни и те же чипы в разных конфигурациях, а рядовой купорос прекрасно оквадривался то карандашом, то подменой драйвера, теперь еще с подменой фирмвари (потому что пошли разные конфигурации по памяти) — с самого появления?


Если для вас это сюрприз, то вас ждет еще много чудных открытий, вроде разлочки конвейров или допайки памяти с перепрошивкой.

Но подтверждать мы это, конечно же, не будем.

Вам товарищи уже ответили выше. Но я и не собирался конкретно сравнивать эти карточки. Я лишь указал, что ваш аргумент является заблуждением в общем случае. Как сломанные часы иногда показывают правильное время, вполне какой-то профессиональный продукт может быть и выгоднее обывательского аналога у той же фирмы. Но это не данность. В большинстве случаев, как и в этом — это лишь сегментация рынка с целью выжать побольше денег из бизнеса.

Уважаемые, вы только не обижайтесь, но статья, скорее всего, устареет к концу недели :)

Вот-вот должны официально анонсировать видюхи среднего диапазона от AMD (RX7600/7700/7800). Ну, по крайней мере, 7600 точно на этой неделе обещали.

И, если релиз окажется не бумажным, то расстановка сил может сильно измениться - кто-то захочет прикупить свежачок, а на какие-то хорошие карты прошлогодних коллекций могут возникнуть значительные скидки (я так Vega56 за символические деньги брал).

В общем, до рассвета совсем чуть-чуть подождать осталось ;)

Могут возникнуть, а могут не возникнуть, цены могут оказаться кусачими, как на 4е поколение у печей.

посмотрим

Если уж такое ретро как 1660 не устарело, то будет актуально минимум несколько месяцев. Опять же исходя из хотелок. У меня монитор на 1080 и чтобы перекатиться с запасом на 4к надо влить около 70к в монитор и от 115к в видеокарту, ну и блок питания порядка 20к. Тут приходится думать в комплексе, при том что апгрейд был совсем недавно.

А так цены на карточки особо то и не падают как стоила 3070 около 60+/- так и продолжает стоить. Что то даже подросло из за скачков курса валют.

для 2k гейминга, чего не скажешь о 3060, которая комфортно себя чувствует лишь в приделах Full HD.

чушь

можно чуть развернуть мысль?

была в пользовании 3060 (12гб) от evga, borderlands 3 и forza horizon 4 на ультрах отлично шли без просадок в 2к

nvidia - блобы, постоянные костыли, непредсказуемое поведение
amd - драйвер (целиком) прям в ядре, последняя зафиксированная проблема года 4 назад (если не больше)

помоему выбор очевиден, даже если бы красные уступали в производительности раза в три.. на текущий момент зелёные нужны только там где не обойтись без CUDA, и думается мне что это сильно временно..

Я уже по инерции последние несколько лет покупал инвидиа, а потом как прозрел.

Покупаешь АМД и после блокировки и отключения монитора получаешь бегающую мышку по черному экрану. И никак не можешь это победить. Меняешь на Нвидиа и просто работаешь.

Выбор очевиден.

НЛО прилетело и опубликовало эту надпись здесь

Вы думаете я про винду писал? Это всего лишь пересказ собственных злоключений с амд видеокартой в начале года. Обычно не заморачиваюсь с выделенными, процессоры от интел со встройками использую. Но тут на работе подвернулась материнка с более мощным процессором чем у меня, но разъемов дисплэй порт не было на ней. Видюха RX550 была в наличии, воткнул и понеслось.

Стояла Кубунту 20.04. Обновил ядро - не помогло. Шаманил с настройками по гуглу и яндексу - не помогло. Скачал что-то с сайта амд, собрал - не помогло. Обновился до Кубунту 22.04 - не помогло. Надоело перезагружаться, а оставлять экран все время работать не дело. Плюнул, принес из дома старую 1060 на тест - помогло.

Я системным администратором более 15 лет работаю, из них 10 лет непосредственно с linux. И я не смог решить проблему с амд видео и отключением монитора на сон.

А если просто кнопкой на мониторе отключать?

Да, самый простой способ. Но 1060 уже была и прекрасно справляется с этой непосильной для драйверов АМД задачей.

У АМД вечно какие то траблы, приходится копаться руками, это по началу интересно, но бывает надоедает. У меня например были синие экраны рандомные, перешел на Интел и о чудо нет больше падений системы.

12 лет назад собирал топовый комп. Решил, что nvidia мне не нужна, т.к. красные были заметно быстрее за ту же цену, а преимущество в CUDA - сильно временно...

И это временное преимущество CUDA продолжается уже больше 15 лет....

Ну, ещё лет за 15 может и прекратится

Через 15 лет можно и видюху поменять. :)

И снова нет хороших карт low profile. Ну не всем подходят гробы под рабочим столом. Хотя уже дошли до usb-игровых видеокарт, о чем раньше можно было почитать только в ИА Панорама

Под usb видеокартой вы подразумеваете, бокс через thunderbolt?

Типа того. В целом желание играть на ноутбуке довольно странное, как по мне. Это как купить феррари и сзади прицеп приделать

Как купить дом на колесах и приделать к нему прицеп с реактивным двигателем, чтобы гонять 240 FPS Км\ч ?

А ещё нет видеокарт с пассивным охлаждением...

Большенство карт может без нагрузки(рабочий стол) отключать вентиляторы. А когда TDP >100Вт то какой пасив бы не был, нужно теплый воздух как то отводить.
У меня, например, на асус 1650супер есть физический переключатель настроек биоса, в silent до 55градусов вентиляторы отключены

2070 и 3070 в пользовании обе отключают вентиляторы охлаждение там избыточное со старших карт.

Вот кстати да. Последнее, что есть под низкий профиль - зелёная 1650 и красная 6600. Но это же курам на смех, ну ладно, никто не просит 80/90 карты, но 60-е можно же было сделать? Палит и компания выпускают "обрезки", практически квадратные, когда высота карты в слоте равна ее длине. Но низкопрофильную сделать упорно никто не хочет.

При этом лоупрофайл это огромный рынок корпоративных машин

Огромный рынок корпоративных машин без проблем закрывается встройками. Если же нужна именно машина с графикой - то это отдельный рынок с отдельными ценами, которые ни в какой обсуждаемый бюджет не влезут

Да ладно. Полно рабочих станций с дискретной графикой, чтобы какую-нибудь САПР крутить

Да, хотелось бы увидеть. Только недавно узнал про RTX A2000 - очень маленькая, холодная, и по мощности между RTX 3050 и RTX 3060

Хорошая. Но цена дичь

Очень странный уклон в AMD. Да, их можно рекомендовать если по каким-то причинам пользователю не важны лучики. Или если человек увлекается играми, которые шустрее идут именно на AMD. Но в остальном доводы надуманны. Да, до уровня 3060 Ti на лучики лучше не надеяться. Или при такой карте, но с разрешением более FullHD. И ещё надо поискать игры, которым будет мало 8 ГБ видеопамяти (и то, про какое разрешение и настройки качества мы говорим?).

Тут уже сказали про нейросети, а я ещё добавлю про аппаратный энкодер видео NVenc - тоже кому-то может быть нужно и важно.

если по каким-то причинам пользователю не важны лучики

Вообще не понимаю, почему люди верят маркетологам нвидии. Кому вообще могут быть важны лучики?


Производительность даже на 3090 Ti с лучами падает в разы. Настолько, что без дорисованных DLSS кадров играть некомфортно. А разницу можно разве что с лупой разглядеть. Оно хорошо видно только в очень "неграфических играх", типа квейка второго. Но даже после добавления RTX игры остаются "неграфическими".


Эти лучики бы сильно облегчили жизнь разработчикам игр, ведь можно не ставить свет вручную, а позволить лучам все обсчитать. Но даже разработчики, по каким-то причинам, не горят желанием добавлять эти лучи — ощущение что добавляют их только те единичные из них, к кому нвидия пришла с чемоданами. Возможно встроить RTX не так и просто, плюс не у всех игроков оно есть, поэтому все-равно надо вручную свет настраивать для обычного режима.

Например, я по счастливом стечение обстоятельств фанатствую и по Cyberpunk 2077 и по Metro Exodus - а это флагманские проекты демонстрации RTX. Абсолютно доволен.

ИМХО:

Cyberpunk 2077 - с лучами лучше, вижу без микроскопа.

Ведьмак 3 NG - разницы не вижу.

игры, которым будет мало 8 ГБ видеопамяти

Из недавнего - The Last of Us Part 1 для PC, ей на "medium"-настройках в разрешении 1920 x 1080 нужно 8.6-10 Гбайт видеопамяти. Помнится, было горячее обсуждение того, что нынче 8 Гбайт как раз-таки игрокам недостаточно.

Там порт кривоват сам по себе от туда и жор ресурсов.

А для комфортной работы в последних Autcad revit, Archicad - кто что посоветует?

Логично посоветовать серию Quadro. Но оправдывает ли их стоимость их производительность? Нормальных тестов в САПР я нигде не видел. ИМХО они не настолько быстрее, насколько они дороже.

Ребята из Puget systems специализируются на таких тестах. У них на сайте можно поискать.

посмотрел у них на сайте подборки ПК для AutCAD и их тесты. Напрямую с игровыми они не сравнивают, в подборке просто сначала указывают самую дешевую Quadro, т.к. это подходит под рекомендации производителя ПО. В среднем конфиге уже ставят RTX 4ххх, в максимальной - топовую из Quadro. При этом в тесте написано, что для САПР важен больше процессор, чем видео. Мне кажется, что для обычного черчения хватит обычной игровой либо, если позволяет бюджет, младшей модели Quadro. Если использование связано именно с моделированием и расчетом конструкций, сред, то Quadro себя оправдают.

1660 Super. 6Gb памяти на борту, уже могут наблюдаться проблемы с современными играми. Сейчас еще работает, но запаса на будущее уже нет. Альтернатива за подобные деньги? 2060 Super, насколько подтверждают хабравчане. При том, что 2060 Super на редкость удачная карта в плане баланса - шина 256бит (а не 192 и не 128), 8 Гб памяти пока еще выглядит приемлемо (хотя бы можно объяснить своей внутренней жабе смысл вообще платить за карту), по производительности она практически впритык и даже чуть быстрее, на уровне погрешности (55 место в рейтинге производительности technical.city), обычной 2070 (61), и сильно отличается от обычной 2060 (65). Но, конечно, не дотягивает до 2070 Super (41).

Далее, если рассматривать варианты "до 20.000" рублей - то стоит рассмотреть 1080 Ti. Прежде чем говорить что это первое поколение, следует иметь в виду, что это не совсем так. В отличие от остальных карт 10хх, 1080 Ti выпущена "особняком", на год позже - в 2017 году. Для понимания вопроса - 20хх поколение вышло всего через год после нее, в 2018 году. Умеренное (относительно 3 и 4 поколения) потребление, 11Гб памяти, отличная широченная шина в 352bit, не сильная критичность к поколениям PCI-E шины, и честная мощь сырой производительности без "этих всяких DLSS" - позволяют и сейчас уверенно держать планку в сегменте до 20.000 рублей, выдавая производительность чуть быстрее, чем "народная" 3060 12Gb (49) , удерживая место в топ-40 рейтинга карт (39). При том, что 11Гб памяти на борту вполне позволяют не задумываться о смене адаптера в ближайшее время, если того не потребует зудящая душа хозяина.

Название статьи всё же лучше поменять и написать "Какую видеокарту лучше брать ДЛЯ ИГР в 2023 году?"
Ибо в других задачах разница 3...5 процентов в производительности легко перекрывается проблемами (или их отсутствием) от драйверов, надёжности или заточенности под конкретную прикладную софтину...

Учитывая, что статья "из песочницы" поставлю плюх плюс :) и просто порекомендую автору в его будущих статьях вдумчиво рассматривать и другие варианты использования видеокарт: 3D проектирование, 3D-моделирование, нейросети.
PS. "Вдумчиво" - это не ссылка на видеоролик, а результаты тестов и описание опыта использования...

Есть какие-н карты толщиной до 46-47мм лучше 6700xt?
По поводу объема памяти - большой объем нужен за пределами фуллхд только, а карты нормально тянущие такое разрешение уже его имеют. У меня 6700хт как раз - в том же Хогвартсе на ультрах ядро работает на 70+% процентах при максимальной загрузке памяти в 30%

от 12Gb достаточно современным играм для FHD без привлечения DLSS/FidelityFX (но эти технологии нужны уже для 4K - для получения FHD из более низкого разрешения будет шлак; а вообще-то эти технологии создавались как минимум для 8K - на 4K их просто отрабатывают, т.к. 8K пока оказался не удел)

Играм 2-3 летней давности сгодится и 8Gb, но многие из них пойдут более-менее нормально и на 4Gb (если за качеством графики не гнаться)

Какую видеокарту лучше брать в 2023 году?

видеокарту лучше брать последнюю в любом году, так же как и другую электронику

Совершенно далеко не всегда так про видеокарты. И уж тем более про любую электронику в целом

Есть нюансы, 40 серия очень толстая не в каждом корпусе уместиться и порты может перекрыть.

Было похоже на рекламу AMD.

Сравнения какие-то вялые...

Сейчас на разных сайтах полно подобных статей и все с одинаковым выводом

Ничего нового - карты AMD Radeon давно уже несколько превосходят карты nVIDIA по соотношению цена/качество (заметно где-то через год после появления в продаже примерно всей линейки обоих конкурентов, т.к. когда проходит накрутка на новизну, а сторонние тесты производительности всё расставляют по своим местам, но спрос на зелёных давно выше, чем на красных - вот и идут скидки у красных).

Но есть три нюанса:

  1. Это всё верно без сравнения рейтрейсинга (и иных случаев аппаратного использования тензорных ядер) - у AMD RADEON нет тензорных ядер со всеми вытекающими

  2. Топовая (и около того) производительность за nVIDIA и даже в околотопом сегменте AMD RADEON'у ту не то что попугаями помериться, но и даже подемпинговать не получается. Особенно это актуально для рейтрейсинга - тут топовые nVIDIA далеко впереди

  3. Есть игры (и и бенчмарки) которые априори оптимизированы в ту или иную архитектуру (чаще всего в сторону nVIDIA) - тут ничего не поделаешь (вероятно nVIDIA специально работает с разработчиками), но таких игр сейчас не много (в стане зелёных) т.к. в основном все все игроделы ААА проектов ориентируются на консоли - а там очень важно делать оптимизацию под AMD (исключение - эксклюзивы для Nintendo Switch), на nVIDIA в основном быстрее работают игры, где в основе лежат старые наработки (движки)

Ну и надо иметь в виду, что в плюсах у зелёных в 4000 серии отличный DLSS 3.0, а в плюсе у красных в серии 7000 отличная оптимизация под Vulkan (а у nVIDIA Вулкан хоть и поддерживается на на отъе....сь так себе, зато вычисления эффективнее на картах nVIDIA (но тут уже вопрос соотношения цена/производительность)

НЛО прилетело и опубликовало эту надпись здесь

4080 усаживает в легкую 3090Ti, до включения FG, практически во всех играх. Шина это хорошо, но шину делают для ГПУ а не ГПУ для шины.

4080 — это 3060, 4090 == 3070, prove me wrong.

4080 vs 3060

4090 vs 3070

Не хватает категории до 10 000руб.

Условно до десятки это встройка APU от AMD

В стане Intel это Irbis (но с APU AMD на данный момент он не сравнится)

В стане nVIDIA.... ну как бы нет десктопных APU

Там только недокарты уровня 730 и старее, проще обойтись встройкой, нужно пошустрее берем АМД.

Эхх, лучеб статью написали о видяхах для ML. Мол как в домашних нищебродских условиях набрать что-нибудь под 32\48+ vram

В нищебродcких условиях наверное это не возможно! Это как минимум RTX 3080, а то RTX 4090

Но для домашнего ML можете поискать в Китае б/у карты после майнинга - для этих целей сгодятся. Так же можно поискать старые Tesla или Quadro - такие б/у сильно дешевле аналогичных новых. Но только на архитектуре не ниже Turing

Это как минимум RTX 3080

3080 же не имеет nvlink'а так что на ней не получится собрать. А вот 2080 вроде вполне годится

Китае б/у карты после майнинга - для этих целей сгодятся. Так же можно поискать старые Tesla или Quadro - такие б/у

в целом и хотелось бы статьи на эту тему

3080 же не имеет nvlink'а так что на ней не получится собрать. А вот 2080 вроде вполне годится

В нищебродских условиях из GeForce'ов вычислительные кластеры не собирают!

можно еще сравнить 1660 super pcie 3 с rx 6500 xt pcie 4

Вы интересно разграничили карты по ценовым сегментам, однако, если бы вы для каждой карты описали спектр подходящих по мощности процессоров, то было бы прям супер-полезно.

А вообще хотелось бы увидеть где-то обзор на карты с точки зрения использования для обучения моделей глубокого/машинного обучения. Многие думают, что там все просто: берем nVidia и видеопамяти побольше, но наверняка есть какие-то подводные камни.

Я один выбираю карты из одного ценового диапазона по правилу надо/не надо cuda и чья система охлаждения комфортные? :) по мне рынок уже давно все сравнил.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории