Pull to refresh

Comments 49

Поясните, а зачем? Зачем помещать игру на виртуальный диск внутри видеокарты?
Я сомневаюсь что текстуры будут грузится напрямую, минуя процессор.


Что такого культового в кризисе 3?
Когда-то я в него поиграл часик-другой.

Просто, теперь журналистов насилуют не только учёные.

Тупо ради скорости подгрузки в RAM. Вот только фигня в том, что если бы вирт был тоже в RAM, не пришлось бы перекачивать через многострадальную шину PCI весь этот фарш. А так трафик ходит и туда и сюда, причём не удивлюсь, если объёмы сопоставимы. Хотела как лучше, а…

P.S. Риторически: геймерша не упомянула, что нужно игру переставлять после ребута?

Я не знаю что за прога у геймерши, но в проге которой пользовался я имелся ф-нал зеркала на винт., так что после ребута у тебя восстанавливались данные.

Вполне вероятно горячий резерв есть и тут, но как это поможет в кейсе, когда я хочу быстро включить девайс и с ходу начать играть? Содержимое HDD/SSD все равно придется подгружать в память, причем сначала в VRAM, а потом оттуда по PCI в RAM.
А так трафик ходит и туда и сюда, причём не удивлюсь, если объёмы сопоставимы.

Трафик может никуда не ходить с новой обьявленной технологией RTX IO вся подгрузка сократится до 0.
image
с новой обьявленной технологией RTX IO

Дело в том, что "объявлена" — это как бы исчерпывающее описание состояния технологии и ее доступности на сегодняшний день. Есть только этот слайд и обещание запилить поддержку технологии в DirectX.


Так что как минимум в данном случает, ни о каком RTX IO речи не идет и идти не может.


Во-вторых, даже если бы RTX IO был доступен, то я очень сомневаюсь, что протечка (или даже пробоина) в одной абстракции (nvme диски) работала бы так же хорошо с абсолютно другой абстракцией (ram/vram диски).

В чем прелесть нестандартизованных API, так это в необязательности их применения. Особенно в приложениях/играх 2012 года выпуска.

Про новые приложения тоже вопрос, так как API проприетарное и не факт, что другие вендоры поддержат. Но задумка правильная, хорошо, если выстрелит.

А есть какие-то подробности про DirectStorage API, на котором эта технология основана? Мне кажется, без серьезных изменений в железе (вследствие переделки всех уровней абстракции доступа к данным) не обойдётся. И с точки зрения безопасности всплывает куча нюансов.

И с точки зрения безопасности всплывает куча нюансов


Ограничить применимость технологии девайсами собственного производства (какими-нибудь nvidia storage ?) и вопрос безопасности отпадает. Проприетарные технологии тяготеют к подобным решениям.

Технология принадлежит не Nvidia, а Microsoft. Вот тут они пишут, что работают со своими партнерами по её внедрению. Нвидиа — партнер, RTX IO — результат сотрудничества. Но подробностей Майки не раскрывают.
Вообще, как я понял, оно уже реализовано на Xbox Series. Надеюсь, энтузиасты быстро расковыряют эти машинки и поделятся подробностями, как же оно работает.
Ну просто получить доступ одним устройством на шине PCIe к другому — это одно. А вот прочитать с NVMe данные, которые хранятся в файловой системе на GPT-разделе, да еще и зашифрованы битлокером (а по умолчанию шифрование включено в совместимой среде, оно программное, ключи в ОЗУ, давать к ним DMA устройствам на шине — вооот такущая дыра) — это что-то из разряда фантастики. Значит, как мне видится, мелкомягкие для этого дела разработали специальную ФС, раздел с которой будет создаваться на геймерских ПК, и к которому будет обращаться видеокарта. И с IOMMU тоже непонятно, он из этой схемы вылетает. А еще я не совсем понял, что такое NIC на схеме — ясно, что не сетевая карта, но что? И видеокарта цепляется к PCI-линиям CPU, а NVMe как правило висят на чипсетных, вот там и будет ботлнек, как этот решается?
Короче, сейчас вопросов больше, чем ответов. Очень жду подробностей от разработчиков =)

В старые добрые времена была вот такая технология кэширования текстур. Текстуры, распаковывались, подготавливались для использования движком и пересохранялись во временной папке как временные файлы. Это делалось на этапе загрузки уровня. Затем, движок в процессе работы мог запросить текстуру из этого кэша не тратя вычислительное время на подготовку. Есть мнение, что RTXIO будет работать подобным образом: прямой доступ к специально подготовленным файлам. И да, скорее всего это будет специальный раздел без шифрования.
UFO just landed and posted this here

И что?
У меня например 32 гига оперативки. Если я в ней RAM-диск сделаю — разница будет?
Смысл организации подобного RAM-диска в видеопамяти?

У меня IDE и проекты на RAM диске, индексация проектов и отзывчивость IDE стала намного лучше, синк с обычным диском rsync + cron.
Контроллер памяти в процессоре. Исключаем медленную по сравнению с GDDR6X DDR4 и её контроллер из передачи трафика, не относящегося к процессору. Почему бы не быть разнице?

Не все так однозначно. Ибо контроллер памяти GPU заточен под максимальную производительность канала GPU-GDDR6X. А насколько хорошо это оптимизировано под передачу данных с GDDR6X на CPU — неизвестно. Скорее всего скорость там будет очень резаться. И плюс на пути будет шина PCI Express 3.0 (x16). А это дополнительная задержка, тайминги и т.д. Да и загружена она бывает временами достаточно сильно.

Осталось перестать сжимать ресурсы игры и найти видюшку с 80÷1024 ГБ видеопамяти?

Не понимаю почему эти вопросы адресованы ко мне. RAM диск в GPU имел бы смысл только при исключении из цепочки VRAM -> RAM -> VRAM -> GPU второго элемента, а это неосуществимо лишь организацией файло-помойки в VRAM. Отсылок же к неким API я не вижу и даже не могу представить в рамках актуальных подходов, так как тот же OpenGL[ES/...] и Vulkan это в первую очередь CPU-side API, а уже во вторую интерфейс к оборудованию.
сама игра загружается очень быстро
интересный подход к публикации результатов тестирования.
UFO just landed and posted this here

image
Чудная утилитка. Теперь я знаю, что так можно делать.

Я не знаю, чем я такое заслужил(
У меня на стареньком ноуте Леново тоже игры быстро загружаются, даже чай не успеваю налить.
А ведь раньше не только налить, но и попить можно было успеть. На PIII и 128Мб оперативки Wolfenstein запускался минут 15, а потом еще минут 10 свопил локацию в память, так что играть было невозможно. Процессс выключения и возврат в ОС 2-3 минуты всего то.
Настолько древние времена я не застал, но вот загрузку сохранения Готики минут по 4-6 помню.
Очень странно, в те времена RTCW на подобной конфигурации бегал довольно резво. Может, у диска отваливался DMA?
Мы в ВУЗЕ на лабах по Pascal которые на CM2M делали успевали за время компиляции спуститься с 4-го этажа в буфет — выпить там чай с пирожком и вернутся назад неспешно… Вот было ж время :)

Кряхтя и попукивая сдувает пыль со Спектрума и подкручивает отверткой магнитофонную головку

А если установить игру на виртуальный диск расположенный в RAM, будет так же «очень быстро» грузить, или «немного медленнее»? Вообщем весь смысл новости — геймерша хайпонула.

Когда я вчера увидел вот этот твит, я сразу подумал, ну что за желтизна то. «Установила прямо на видеокарту», кто-то подумает, что вся игра работает на видеокарте и процессор вообще остаётся не у дел, а видеокарта ещё и загружена «всего на 40%». Но есть нюанс. (с)

После вдумчивого изучения материала оказалось, что был создан RAM диск, который утилизировал память видеокарты и игра устанавливалась как обычно. При этом, оставшегося свободного объема видеопамяти хватает на использование по прямому назначению. А заголовок желтит так, что хайп подняли не кислый.

Какие от этого выводы? Есть такие.
1. Действительно, такой объём видеопамяти ещё пока не способна использовать ни одна из существующих игр, может быть в будущем что-то появится. И такой импровизированный RAM диск очень поможет пользователям того-же Хрома, ведь он действительно летает, если кеш/temp сидят в RAM диске (проверял лично).
2. Настоящие RAM диски существовали всегда. Не эмуляция в основной памяти, а настоящие, на таких шинах как ISA, PCI, теперь вот PCIEx. Просто этот рынок нишевый, цели узкие, вот широкая публика о нём и не слышала. SSD вот недавно переехал на шину, прямо как RAM диск. А вот то, что можно так использовать видеопамять это бонус несомненно приятный. Вероятно, это стало возможно только в RTX30xx из-за новой технологии RTX IO.

И напоследок. Об этих 40% GPU. Смотрим на реальный скрин по ссылке на твитер (в статье тоже есть ссылка) и видим:
image
Внезапно, да?
На самом деле в разрешении 8К вроде игры вполне себе используют 10-20 гигабайт запросто (Flight Simulator требует 16 гигабайт). Другое дело, что этот 8К никому не нужен, потому что во-первых придётся отдать целое состояние за монитор, во-вторых, на нём будет выходить еле-еле 45-60 FPS, и то только в очень ограниченном наборе максимально оптимизированных игр… Так что по сути согласен, 24 гигабайта в consumer-grade GPU сейчас никому не нужны. Здесь стоит заметить, что 3090 урезана в плане фич по сравнению с «профессиональным» Titan.
Вероятно, это стало возможно только в RTX30xx из-за новой технологии RTX IO.

У GpuRamDrive, о котором идет речь, последнее обновление было 3 года назад, когда никаких RTX IO еще не было.
Так что просто ну хайпово же. Хотя с тем же рамдрайвом в основной памяти грузилось бы бы еще быстрее.

Да, RTX IO это про доступ из NVMe в видео память

Т.е. просто Bus Master'у видеокарты добавили возможность брать данные не только из ОЗУ, но и из NVMe? Но NMVe суть SCSI контроллер на шине PCIEx, почему она тогда не может забирать данные, например, из AHCI?

"Действительно, такой объём видеопамяти ещё пока не способна использовать ни одна из существующих игр"


И почему все так уверены, что видеопамять нужна исключительно для игр...

А для чего ещё нужна видеопамять на видеокарте? Поведайте.

Из того что сразу в голову приходит: CAD, ML, рендеринг для 3д-моделирования и видео-продекшена. Для первого 3090 не особо применима в силу ограничений в драйвере, но для остального — вполне себе.

А разве у CAD какие-то завышенные требования к видеопамяти? Видеопродакшн это для линейного/нелинейного монтажа или рендеринга роликов как у Pixar? Всё относительно. И если смотреть на рынок, то игровая индустрия всё же это майнстрим, так что всё логично.
А разве плохо, если модель спорткара будет крутиться не на серверной ферме, а в видеопамяти единственной видеокарты?
Или там помоделировать погоду?
А разве речь про хорошо/плохо? Всегда хорошо, когда есть возможность. Даже если она прямо сейчас не нужна.
UFO just landed and posted this here
Это так не долго дойти до того что вместо GPU будет GPU+CPU+RAM (Game Processing Unit?) в одном корпусе, а привычная «начинка» компа будет только для подключения HDD/SSD и USB. Эдакая игровая консоль следующего поколения (и с нормальной клавомышью)
был создан RAM диск, который утилизировал память видеокарты
На русский переводится как «использовал»
UFO just landed and posted this here
Это ведь просто новость, не статья, чего вы раздосадованы все так.
Sign up to leave a comment.

Other news