Pull to refresh

Comments 65

Если говорить об игровой производительности, то все еще неоднозначнее. Судя по многочисленным тестам на ютубе, половина игр вообще не видит второй графический адаптер (он простаивает под нулевой нагрузкой), а еще половина из оставшихся не умеет нормально его использовать (нагрузка1 = 100%, нагрузка2 = 25%). Поэтому, вторая видеокарта вообще не равно хоть какому-то приросту в играх, скорее это лотерея из выборки игр, в которых реализована грамотная работа с SLI/CrossFire.

Да, к сожалению. SLI/CrossFire более менее работает в нескольких ААА играх. Что уж говорить про более бюджетные проекты. Некоторые даже одну видеокарту не используют толком и процессор в один поток пыхтит.

К слову недавно обнаружил, если игру заставить использовать API Vulkan вместо DirectX 9/11/12, подсунув в каталог игры соответствующий dxvk, то оригинальные проблемы производительности графики могут пропасть. Может эта информация кому-то поможет не покупать новую видеокарту из-за багов разработчиков.

Пробовал объединить две AMD 560. Результаты не впечатлили, работает, но менее стабильно и далеко далеко не везде работает вообще, а местами некорректно работает. Сделал вывод, что с одной картой оно лучше получается. производители давно забили на две видеокарты, и хотя в драйверах функция есть, толку меньше нуля (отрицательный результат).

Если бы оно работало как раньше, то стоило бы. Но оно больше не работает:(

Ну по статье, как собственно и по здравому смыслу очевидно, что лучше одна rtx 4060 двух gtx 1660.

А вот по картинке для привлечения внимания это далеко не очевидно! ))

И не всегда правда)))

по картинке для привлечения внимания это далеко не очевидно

классика же

Даже если просто брать в расчет цену пары карт, которые вы хотите объединить, получится довольно нерациональная затея

Хех, обычно одна карта уже есть, а вторая бралась на барахолке б/у, так что по деньгам более чем рационально. Главный минус указал immortal555 - большинство игр не могут использовать потенциал 2-х карт.

Разрешите подушнить?! «Установка новой видеокарты - это ... увеличение фпс, фреймтайма» Фпс и фреймтайм обратно пропорциональны - фраза не имеет смысла. Если имелся в виду фреймрейт, то это синоним фпс.

UFO just landed and posted this here

Ради этой игры я себе заказал вторую GTS 250 из штатов с ибея... Воткнул и ощутил те самые физические фишки и прирост производительности прям сильно.

Смотрю и думаю - прекрасна, как и 16 (етить!) лет назад. Шедевр вне времени.

Может быть добавление эффектов и выглядит красиво, но визуальный шум мешает качественному геймплею. Хороший пример на 0:46 с вертолетом. С выключенными эффектами вертолет виден сразу. Порой низкая графика это как легальные читы

UFO just landed and posted this here

SLI/Crossfire мертв. Они были полностью зависимы от производителя драйверов видеокарты, но NVIDIA и AMD полностью отказались от их поддержки. Так что ответ на вопрос из заголовка "только если требуется вывод изображения на большое число мониторов".

Я что-то помню были варианты средствами Vulkan/DX12 со связью через PCIe. Или это создатели игр должны делать, а они не делают?..

это пишется создателями игры, полностью. И вроде это вообще никто не сделал, кроме авторов ребута томб райдера, и то я не уверен

На счёт SLI не знаю, но поддержку CrossFire разработчики тоже должны были добавлять в игру сами.

я про dx12 mGPU. SLI показывает игре все имеющиеся видеокарты как одну, вроде бы.

Вроде нагуглилось побольше игр.

Список

Ashes Of The Singularity

Rise Of The Tomb Raider

Deus Ex: Mankind Divided

Total War: Warhammer

Civilization VI

Sniper Elite 4

Halo Wars 2

А так жалко, довольно прикольно работает.

Hidden text

Фишка на самом деле в том, что современная игра сложная, и её гораздо сложнее распределить по картам. Раньше всё было намного проще, всё считалось независимо и хорошо параллелилось, теперь ситуация иная, поэтому сложность существенно выше, прирост существенно меньше, поэтому и отказались.

Вернутся к нейросетям и/или лучам — вполне может вернуться. Лучи и нейросети, по крайней мере, в текущем варианте, параллелятся хорошо.

да вроде как бы наоборот - сейчас куча инструментов (фремворков/либ) готовых для распараллеливания, не то что лет 10-15 назад. когда каждый разработчик был и швец, и жнец и на дуде игрец.

Речь не о распараллеливании потоков по CPU и не о GPU computing. Я имею ввиду другое, не наличие/отсутствие абстракций и сложность ими пользоваться, а чисто фундаментальную проблему, корень которой в самих методах работы современных игр.

Раньше, грубо говоря, пиксели на экране почти не зависели друг от друга, и их можно было считать независимо, что есть очень благоприятная почва для раскидывания по картам.

Сейчас в играх масса всевозможных шейдеров и эффектов, разных отложенных затенений и освещений, всяких экранных буферов нормалей и прочего, и пиксели зависят гораздо больше от своих соседей. Потому картам надо гораздо общаться между собой и ждать друг друга. Параллелим по половине экрана — надо читать другую половину — ждем‑качаем данные, параллелим по времени (четный‑нечетный кадр) — тем более всё плохо, потому что множество эффектов (например отражения в экранном пространстве или сглаживание TAA/TXAA) требуют знаний о предыдущем кадре. Везде затык. Даже в Half‑Life 2 были отражения в воде, которые создавали проблемы для SLI (хотя там можно было имхо выкрутиться, поделив экран вертикально, т.к. отражается всё сверху вниз — между картами почти ничего передавать не надо).

Поэтому вернуться оно может, если рендеринг снова станет менее связным, как раньше, например, из‑за трасировки лучей.

Вы со статьей лет на 15 опоздали. В большинстве видеокарт уже нет разъемов для SLI/Crossfire

Среднеуровневые прекрасно общались через PCI-express.

Пытались NVLink в потребительские завести. Последняя где это было — RTX 3090

Для задач рендера или AI объединять карты через NVlink не нужно, а для игр технология уже мертва около 5 лет.

NVLink был только в топах, а сейчас его вообще нет в 40xx серии.

Для задач рендера или AI объединять карты через NVlink не нужно

а без NVlink разве можно объединять карты для нейронок/рендера?

а без NVlink разве можно объединять карты для нейронок/рендера?

Да, причём хоть 16 штук — пока линии PCIExpress не кончатся. Мостики SLI/NVLink, в основном, нужны для аппаратной синхронизации карт и некоторых мелочей. А так всё просто:

  1. Взять карту А, асинхронно начать выполнение X на ней

  2. Взять карту Б, асинхронно начать выполнение Y на ней

  3. Дождаться завершения выполнения X

  4. Дождаться завершения выполнения Y

Это поддерживается даже на уровне современных DirectX. В профессиональном секторе остались не только мостики для синхронизации карт в одном ПК, но и мостики для синхронизации множества карт, установленных в разные ПК.

В ии llm это так не работает. Для них нужна вся оператива разом.

NVLink может в доступ к памяти соседней карты (в отличие от простого SLI мостика), собственно, в таких вот ящиках толпа GPU соединяется как раз им.

От задачи зависит. Если хочется одну модель обучать на 160 ГБ на паре A100,тогда действительно нужен NVLink. Но, на практике, чаще на одной A100 параллельно несколько моделей обучаем и необходимость в NVLink между имеющейся парой ещё ни разу не возникла.

Я вам больше скажу: NVLINK на 3090 был фейковый: это был тот же разьем, но под капотом крутился старый-добрый SLI.

SLI для рендера и нейронок вреден.

Софт либо умеет в несколько видеокарт, и тогда он сам умеет гонять между ними данные; либо не умеет, и тогда работать оно будет через одно место. SLI - технология для игр.

Что касается nvlink, то его на консьюмерских картах больше нет, и теперь уже точно не будет: NVIDIA точно не захочет, чтобы вы заменяли одну Quadro несколькими RTX.

Ну давайте, обучите нейронку сегментировать зубы на КТ без объединения карт. А4000 с 16 Гб не позволяет получить даже хоть сколько-нибудь приемлимый результат

Если k-NN действительно не поддерживается, то LSH-based Approximate Nearest Neighbor тот же Spark Rapids ML поддерживает. Так что, при желании, все решаемо даже при GPU на физически разных хостах

Лет 15 назад две gtx 460 были производительей и дешевле одной gtx 480. Но мало в каких играх можно было получить значительный прирост. Оно как-то где-то работало и технология медленно умирала. Уже три поколения даже разъемов нет на видеокартах. Со статьей опоздали лет на 5.

Как мне кажется статья писалась исключительно с целью предложить сейчас(доползли 4070 super, 4070 TI super) купить 4060, да еще и со словами "Лучше купите хорошую современную видеокарту и не заморачивайтесь" :))

Ещё короче: "купите у нас видеокарту".

Не соглашусь с Вами, прирост был и очень огромный. И почти во всех играх работал sli. Вот Вам ссылочка, на мои персональные страницы, на оверах. Там есть много карт и 480 и 460 в sli, прям довольно большой обзор для автора одиночки.

Судя по техническому состоянию последних "шедевров" на ПК, разработчики даже с одной видеокартой не справляются, что там говорить о двух.

Совет всегда прост: берёте список самых популярных видеокарт в Стиме и покупаете модель из топа этого списка. Именно для этих видеокарт современные игроделы хотя бы как-то пытаются оптимизировать игры.

Или не пытаются, как с последними звёздными войнами (которые сингловые).

Понятно, что сейчас эта технология мертва. В 2024 году гораздо интереснее знать, что даст наличие нескольких видеокарт при работе с нейронками. Причём речь не об обучении, упомянутом в конце статьи. А просто чтобы пообщаться с большой локальной LLM, например.

Думается мне, что много видеокарт тут особо не помогут. Для LLM нужно овердофига памяти в первую очередь. И по этой видеопамяти гпу туда-сюда бегает с огромной скоростью. Вот в эту скорость многое упирается на нейронках.

Так есть не только LLM, которые худо-бедно внутри оперативки помещаются. При работе с картинками и видео нужна именно быстрая видеопамять. И наверняка у кого-то есть опыт использования нескольких видеокарт в такой ситуации.

По NVLINK как то делается подобное, но технология настолько обесценивает карты высших линеек, что нвидиа быстро убрали nvlink из домашних карточек. И с ней они ощутимо так дороже стали стоить на барахолках.

Не думаю что сейчас это стоит делать, раньше было увлечение ставить две видеокарты у многих блогеров, а сейчас уже не вижу таких

В давние времена у меня в ПК стояли GTX 560 для графики и GT 440 чисто для физики PhysX. Значительного прироста производительности не наблюдал, зато ходил с очень гордым видом :)

У меня долгое время был ПК с двумя GTX Titan (~GTX780 с большей памятью + непорезанными вычислениями fp64) и ещё GT 640 — на тот момент 700 поколение было самым новым.

Много карт для игр имеет смысл, когда одной топовой мало и надо с 20 fps добраться хотя бы до 60 fps (мой случай). В остальных случаях смысла нет.

В современных реалиях ситуация, когда одной топовой мало, вполне может себе быть (даже двух мало), но вот многовидеокартность похоронена. Причины этого расписывать не буду, вкратце — в современных играх прирост от двух и более карт сделать очень сложно, и разработчики заморачиваться над этим совсем не хотят. В старых играх прирост получить было просто, и он был, и был существенным.

Возможно, когда перейдут на связку трасировка лучей+нейросети, и откажутся от приблуд растеризации, многовидеокартность обретёт смысл и вернётся, но пока этот тренд (лучи+нейросети, или даже просто нейросети) только намечается.

Из-за первой фотки, как-то статью уже вполглаза читал...

ну нормальный вариант использования разных GPU, AMD\Nvidia, у меня 6800 как основная, 3080 на "подхвате", лучики включить и т д. да и работать проще, те-же языковые модели пока крутятся на зелёной, могу параллельно играть\монтировать и т д на красной. так-же раньше был опыт "гибридного" SLI\CrossFire, который реально работал.(сейчас бы что ни будь такое, эх...)

Кстати, я тут недавно купил для ноута внешнюю 4060. Был удивлён, на сколько хорошо она работает. И игры и программы, и даже нейросетки спокойно её подхватывают. Так что, если есть старенький девайс с thunderbolt - то это вполне способ подарить ему вторую жизнь.

А не подскажете, какой бокс для видеокарты использовали? Тоже подумываю над таким вариантом.

Вот этот. По ощущениям он один единственный на Ali, просто продают его в разных вариациях.

Я думал сейчас наконец-то прочитаю про тонкости и нюансы настройки профилей в nvidia inspector или тюнинга драйверов чтобы моя сборка в sli наконец-то показала свой потенциал... Но нет статья кончилась на призыве к апгрейду, а моя сборка подходит только для брута хэшей :(

Я себе 4 карты поставил, мне норм )

Бесполезная трата времени от прочтения статьи. Можно было просто написать, лучше купить 1 новую карту, чем 2 старых. Всё.

С каких пор1660 поддерживает SLI?

Да и вообще, я думал тут будет Линукс, проброс видеокарты на виртуальную машину и т.д.

Что за бредовая реклама? Надергали данных откуда-то а смысла ноль. Это типа мы выбираем две 7900 против rtx4060? Низачот. Вот выйдет какой нить pci64x и производители упрутся в лимит по транзюкам и снова будут мудрить с параллельными вычислениями...

Сами разрабы признали что это была плохая затея. Щас ещё одна сомнительная фишка тестируется это совмещение гпу и цпу. Нвидиа планируют запихнуть свои цпу в видюхи.

Тема КДПВ не раскрыта!!11

Ну, наверное, будет проще и дешевле взять карту от Nvidia, процессор со встройкой, и уйти в прайм(Nvidia Prime Renderer Offload).

Тот прикол, когда старфилд прогнали через Nvidia+AMD с DLSS и FSR внушает надежду в эффективность таких экспериментов, но цена за такое будет запредельная. Через тот же прайм, в теории, можно прогнать картинку с одной видеокарты через другую, но на опыт со старфилдом это не похоже, а FSR, как я понимаю, не работает в реал-тайме(не получится картинку рабочего стола прогнать через FSR)...

Для обычных игр смысла нет никакого. Несколько видеокарт в одной системе могут иметь смысл, если под игрой подразумевается чат с локальной нейросетью, но даже в этом случае добавлять вторую видеокарту имеет смысл только тогда, когда первая - как минимум RTX 3090.

Не стоит ставить, на сайтах карт ранее писали что не будут больше поддерживать две видеокарты, не актуально, имеется опыт в двух вегах 64 от амд, в нескольких играх включалось crossfire, и то разницы не заметил, сделал кор на САПР, (КОМПАС 3Д), там видимо не знают об использовании двух видеокарт. Для АМД два типа драйверов для игр и для САПР. Как у нвидиа не знаю. В Fusion 360 тож ничего для двух видеокарт не работает. В линуксе тем более, только головная боль. Потом близкое расположение карт, они как никак 2 или 2.5 слота занимают, и остаётся небольшое расстояние между ними, нижняя выделяет тепло, а верхняя не может воздуха наглотаться, и работает от своего плохого обдува, так ещё и нижняя поддает жару. С биосом потом проблемы возникают, нельзя попасть при двух установленных картах. На нижней скидываю питание, и захожу в настройки. Дополнительно нельзя использовать разъемы второй карты для подключения мониторов. Подытожу, это та ещё головная боль, и к ни к чему хорошему это не приведет. Если бы разработчики софта прямо указывали о возможности работы двух карт для софта это бы все меняло, а так ни один разработчик не указывает такой информации.

Sign up to leave a comment.