Комментарии 37
Снова плохие новости. Это как хвалить DLSS, в котором за движением остается тень, зато фпс повыше.
Тень остаётся не из-за DLSS а из за кучи темпоральных техник, тот же люмен в 5 анриле использует темпоральные накопления для GI ну и плюс TAA, короче дело не в DLSS
Выключение DLSS убирает эту "тень" следующую за неожиданными движениями.
Можно список игр? Я везде длсс включаю, и как-то лишь в единицах шлейфы реально заметны при обычной игре, а не хантинге.
Дело не в конкретной игре.
DLSS если в игре есть и включён, то дальше магией занимается уже видеокарта. Шлейф виден на новых версиях, где до 3 фейковых кадров. Если видеокарта не угадала, куда будет выполнено движение - будет шлейф. Ну т.е. в динамике это будет чаще, в играх-кино - реже.
В киберпанке если стоять на месте и смотреть за проезжающими авто - будет шлейф.
Опять улучшения в графоний. Вот бы ИИ зарядить, чтобы сожетку проработать, играбельность, вот это все.
Уже есть работы над сеткой для ИИ противников
Почему в этих примерах не показывают потребление видеопамяти? Понятно, что текстуры стали меньше места занимать, но сколько памяти нужно нейросети, которая их апскейлит?
Вообще генерация текстур казалось лежала на поверхности т.к. текстура почти всегда это просто паттерн, и сгенерированный он может выглядеть даже лучше, т.к. не будет явных повторов.
Но не приведёт ли это к тому, что каждый раз разворачиваясь на 360 картинка будет выглядеть иначе т.к. все текстуры перестроились иначе.
Хотя если они будут строиться относительно некоторого константного seed - то звучит как прорыв.
и в чем выгода? память довольно дешевый компонент, упора в нее нет, а вот то, что игры выходят плохо оптимизированными и без этого сжатия дают слабый fps без каких-либо излишеств на экране - это типичная история сегодня. Эти RT ядра и так перегружены сегодня и не вывозят ray tracing
пропускная спосоность шин. и проблема распараллеливания на несколько процов и разбиение кадра на разные процы. им нуны общие текстуры и их приходится либо гонять туда сюда либо дкблировать все. поэтому всяки кросфая и се эл ай умерли не родившись.
и в чем выгода?
В сегментации рынка. Алгоритмы для обучения нейросетей хотят много памяти, реальной. Карты с большой памятью можно продавать за 100к долларов, и всё равно купят. С другой стороны, геймеры ноют, что им в новых играх не хватает 8-16 ГБ. Но если геймерам дать больше, эти карты скупят под профессиональное применение. Вот они и выкрутились - нашли, как успокоить геймеров, и не порушить себе продажи про-версий.
Как раз памяти современным видеокартам и нехватает
Что-то мне подсказывает, что нормальный жпег будет всяко не хуже, а распаковываться в каждый кадр будет быстрее, чем вся эта нейрогенерация…
Или даже, может быть, жпег-текстура будет рендериться в своё место сцены быстрее, чем читается несжатая, потому что «кыпыцэнты» умножать — быстрее, чем читать 100500 значений из и без того выжатой до упора шины памяти.
Когда ждать это чудо в драйверах под Линукс? Или это не на уровне драйверов, а на уровне игрового движка? Они дадут разработчикам какие-то библиотеки с нейросеткой внутри?
Правильнее будет "Как новая технология сжатия текстур от NVIDIA позволяет экономить на оптимизации игры до 95%")
Вы так написали, как будто это что-то плохое :)
Для разработчика/издателя - просто отлично, для игрока - уже не очень
Ну, для игрока это может означать отсутсвие повышения цен на "ААА" игры, более короткие сроки разработки игр и ещё более крутые инди проекты. Так что, ИМХО, все потенциально в выигрыше. Но как этим инструментом воспользуются разработчики - зависит от разработчиков.
игры уже 70$, а разговоры и дальше идут только о "разработка дорожает" (хотя если посмотреть на бюджеты игр, кратно растут только аппетиты топ-менеджеров). и это несмотря на присутствие микротранзакций уже в каждой второй даже сингловой игре. а от разработчиков в ААА разработке уже давно мало что зависит, скорее от менеджеров, которым нужно показать максимальную маржу перед инвесторами. так что все подобные технологии идут для экономии бюджета разработки, что никак не выливается в какую либо выгоду для игрока за очень редкими исключениями, это уже как случившийся факт в индустрии к сожалению.
С нетерпением жду ответа от AMD. А то при всех их (для меня) достоинствах - вот сейчас даже ROCm нормально с LM Studio работает (правда только на картах с архитектурой RDNA2/RDNA3), потребление памяти в играх практически всегда процентов на 5-10 выше чем у NVidia при аналогичных настройках.
AMD придется чем-то ответить, ведь их железо стоит во всех игровых устройствах. А у нвидии вообще нет таковых (кроме свича). Кстати, у нвидии это в свич 2 будет очень полезно, если там будет стоять нвидия и нинтендо опять зажмотит память.
Ну и да, очень сильно надоела монополия нвидии.
Такие технологии должны делаться сразу на уровне Dx и Vulkan, чтобы не зависит от вендора и сразу работать везде (в том числе на NPU)
И не проще ли памяти добавить побольше? Она ж копейки стоит в закупке.
Сдаётся мне, что сейчас сожмут текстуры, потом урежут видеопамять до пары гигабайт, и вместо нескольки игровых для ИИ моделлинга придётся покупать несколько профессиональных за другие деньги.
Вот опять, статья клуба любителей подолбиться на видеобуфер . Автор вообще не понимает о чем пишет. Видеопамять и ее размер не влияет на ФПС! Влияют другие факторы, такие как пропускная способность чипа карты, шины и самой памяти. А ещё эта технология наоборот снижает ФПС на 5% компенсируя нехватку. Знаете кто и зачем пишет такие статьи?? Майнеры, нейросетчики, им вот видеобуфер нужен как вода любой, потому они долбят хуанга в каждом заказной статье. Там чем больше буфер тем большее операций Майнер делает и быстрее учится нейронка. Отсюда им насрать на реальную производительность, главное отсыпать памяти этим наркоманам.
Как новая технология сжатия текстур от NVIDIA позволяет экономить до 95% видеопамяти