Как стать автором
Обновить

Комментарии 37

Тень остаётся не из-за DLSS а из за кучи темпоральных техник, тот же люмен в 5 анриле использует темпоральные накопления для GI ну и плюс TAA, короче дело не в DLSS

Можно список игр? Я везде длсс включаю, и как-то лишь в единицах шлейфы реально заметны при обычной игре, а не хантинге.

Дело не в конкретной игре.

DLSS если в игре есть и включён, то дальше магией занимается уже видеокарта. Шлейф виден на новых версиях, где до 3 фейковых кадров. Если видеокарта не угадала, куда будет выполнено движение - будет шлейф. Ну т.е. в динамике это будет чаще, в играх-кино - реже.

А, вы про фреймген. Камень в огород нвидии за то, что они разные технологии под одним названием продвигают. Я имел ввиду dlss, который сеточный апскейл.

Да, апскейл норм, потому что он на старый добрый ТАА в целом опирается и это неплохо. Вот фейковые кадры пока сомнительны, на мой взгляд.

В киберпанке если стоять на месте и смотреть за проезжающими авто - будет шлейф.

Это да, самое простое. Я имел ввиду в исходных данных указать данные: вот в этой игре людям нравится эти моменты, в этой другие, данные по человеческой психологии, вот это все, чтобы нейросеть родила то, что человеческому разуму не под силу, вот прямо чтоб откровение)

Почему в этих примерах не показывают потребление видеопамяти? Понятно, что текстуры стали меньше места занимать, но сколько памяти нужно нейросети, которая их апскейлит?

Вообще генерация текстур казалось лежала на поверхности т.к. текстура почти всегда это просто паттерн, и сгенерированный он может выглядеть даже лучше, т.к. не будет явных повторов.

Но не приведёт ли это к тому, что каждый раз разворачиваясь на 360 картинка будет выглядеть иначе т.к. все текстуры перестроились иначе.

Хотя если они будут строиться относительно некоторого константного seed - то звучит как прорыв.

Вспоминаю технодемки на условные 640 кб, которые создавали сотни мегабайт временных файлов и выдавали умопомрачительные 3D-сцены, всегда одинаковые.

и в чем выгода? память довольно дешевый компонент, упора в нее нет, а вот то, что игры выходят плохо оптимизированными и без этого сжатия дают слабый fps без каких-либо излишеств на экране - это типичная история сегодня. Эти RT ядра и так перегружены сегодня и не вывозят ray tracing

пропускная спосоность шин. и проблема распараллеливания на несколько процов и разбиение кадра на разные процы. им нуны общие текстуры и их приходится либо гонять туда сюда либо дкблировать все. поэтому всяки кросфая и се эл ай умерли не родившись.

и в чем выгода?

В сегментации рынка. Алгоритмы для обучения нейросетей хотят много памяти, реальной. Карты с большой памятью можно продавать за 100к долларов, и всё равно купят. С другой стороны, геймеры ноют, что им в новых играх не хватает 8-16 ГБ. Но если геймерам дать больше, эти карты скупят под профессиональное применение. Вот они и выкрутились - нашли, как успокоить геймеров, и не порушить себе продажи про-версий.

Как раз памяти современным видеокартам и нехватает

Что-то мне подсказывает, что нормальный жпег будет всяко не хуже, а распаковываться в каждый кадр будет быстрее, чем вся эта нейрогенерация…

Или даже, может быть, жпег-текстура будет рендериться в своё место сцены быстрее, чем читается несжатая, потому что «кыпыцэнты» умножать — быстрее, чем читать 100500 значений из и без того выжатой до упора шины памяти.

А разве видеокарты понимают джипег? Он же в видеопамяти разворачивается в то, что не копейки весит. А ещё его загрузка долгая

Поэтому джипег для игр используют редко, чаще используют специальные форматы, например, dds

Когда ждать это чудо в драйверах под Линукс? Или это не на уровне драйверов, а на уровне игрового движка? Они дадут разработчикам какие-то библиотеки с нейросеткой внутри?

Для разработчика/издателя - просто отлично, для игрока - уже не очень

Ну, для игрока это может означать отсутсвие повышения цен на "ААА" игры, более короткие сроки разработки игр и ещё более крутые инди проекты. Так что, ИМХО, все потенциально в выигрыше. Но как этим инструментом воспользуются разработчики - зависит от разработчиков.

игры уже 70$, а разговоры и дальше идут только о "разработка дорожает" (хотя если посмотреть на бюджеты игр, кратно растут только аппетиты топ-менеджеров). и это несмотря на присутствие микротранзакций уже в каждой второй даже сингловой игре. а от разработчиков в ААА разработке уже давно мало что зависит, скорее от менеджеров, которым нужно показать максимальную маржу перед инвесторами. так что все подобные технологии идут для экономии бюджета разработки, что никак не выливается в какую либо выгоду для игрока за очень редкими исключениями, это уже как случившийся факт в индустрии к сожалению.

Игры дорожают медленнее, чем инфляция доллара (3% в год в среднем).
$50 за AAA было в середине 2000-х. Так прошло уже 20 лет.

С нетерпением жду ответа от AMD. А то при всех их (для меня) достоинствах - вот сейчас даже ROCm нормально с LM Studio работает (правда только на картах с архитектурой RDNA2/RDNA3), потребление памяти в играх практически всегда процентов на 5-10 выше чем у NVidia при аналогичных настройках.

AMD придется чем-то ответить, ведь их железо стоит во всех игровых устройствах. А у нвидии вообще нет таковых (кроме свича). Кстати, у нвидии это в свич 2 будет очень полезно, если там будет стоять нвидия и нинтендо опять зажмотит память.

Ну и да, очень сильно надоела монополия нвидии.

Такие технологии должны делаться сразу на уровне Dx и Vulkan, чтобы не зависит от вендора и сразу работать везде (в том числе на NPU)

В dx/vk перейдёт через несколько лет, когда концепция докажет свою жизнеспособность и стабилизируется. Вспомните, даже банальная растеризация треугольников с текстурированием сначала была в проприетарных API (3dfx - своё, s3 virge - своё).

И не проще ли памяти добавить побольше? Она ж копейки стоит в закупке.

Написал выше

Логично. Основа бизнеса - надувание ИИ пузыря, а гоймеров можно прогреть продав им те же технологии но в максимально урезаном виде.

Сдаётся мне, что сейчас сожмут текстуры, потом урежут видеопамять до пары гигабайт, и вместо нескольки игровых для ИИ моделлинга придётся покупать несколько профессиональных за другие деньги.

Вот опять, статья клуба любителей подолбиться на видеобуфер . Автор вообще не понимает о чем пишет. Видеопамять и ее размер не влияет на ФПС! Влияют другие факторы, такие как пропускная способность чипа карты, шины и самой памяти. А ещё эта технология наоборот снижает ФПС на 5% компенсируя нехватку. Знаете кто и зачем пишет такие статьи?? Майнеры, нейросетчики, им вот видеобуфер нужен как вода любой, потому они долбят хуанга в каждом заказной статье. Там чем больше буфер тем большее операций Майнер делает и быстрее учится нейронка. Отсюда им насрать на реальную производительность, главное отсыпать памяти этим наркоманам.

FPS катастрофически падает, когда видеопамяти на хватает и текстуры начинают подкачиваться из основной памяти по PCIe. Или, если разработчики запрещают такую подкачку, "на ультрах" уже не поиграешь с недостаточным объёмом VRAM.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий