Как стать автором
Обновить

Комментарии 45

Как то вы лукавите.
1)да я согласен что время RTX ещё не настало, но такое впечатление, что вы специально выбрали кадры в которых толку от RTX нет. На RTX надо смотреть тени\освещение\отражения. А на ваших скриншотах только тени... и похоже от статичного источника освещения.
2)так почему AMD?
3)Вы сами в пример приводите DOOM, а не какую-нибудь стратегию. Что с инпут лагом?
а)если мы патчкордом подрубимся к серверу на сколько инпут лаг от мышки до монитора будет больше, чем если та-же 6700 стоялы бы напрямую в компе?
б)В случае с реальной сетью достаточно ли к инпут лагу из пункта "а" добавить время отклика сервера, или нужен поправочный коэффициент (большие пакеты дольше идут).
4)В VR шлемах есть интересная технология, которая позволяет крутить камеру независимо от входного сигнала (т.е. в шлем прилетел видеокадр, а уж в каком месте его отобразить решает шлем на основании того как его повернули). Что сводит к 1/fps шлема инпут лаг поворота. Есть ли у вас похожие технологии?

  1. Выбрали популярную и достаточно требовательную игру, кажется пример вполне релевантный. Конечно же можно выбрать специальную игру с изобилием трассировки лучей, но мы взяли что-то среднее.

  2. На рынке не так много решений графических ускорителей, расширяем технологическую базу, в статье описали преимущества, конечно же помимо технологических пунктов, есть ещё и рыночные, рынок сейчас очень нестабилен, как в поставках, так и в ценах и надо иметь альтернативное решение, уверен это будет на благо всем участникам рынка. Кстати один из Глобальных конкурентов работает на AMD.

  3. Инпутлаг будет на любой видеокарте, он никуда не исчезнет, т.к. технология его закладывает по определению, при прочих равных, видеокарта не сильно на это влияет. Ориентировочны цифры 5-10мс, но есть важные моменты связанный с измерением. Большие пакеты действительно могу идти дольше, но в рамках UDP всё достаточно прямолинейно, и тут уже важнее, дойдут или нет пакеты по сети, и можно ли будет из того, что дойдёт, показать такую же прекрасную картинку, как при выходе с сервера. Именно поэтому, в облачном гейминге очень важно качество канала между серверов и клиентом, т.е. идеальный провод, с неперегруженными коммутаторами, и широкими каналами без шейминга.

  4. Если я правильно понял, Вы говорите о рендеринге 3D на клиентском устройстве, т.е. запуск идёт на компьютере и передаётся только видеопоток, то такой технологии нет. Но если говорится, что игра как-то передала 3D картину мира на VR очки, и поэтому в очках этот мир нарисован заранее и рендерит по какой-то причине быстрее чем компьютере, то это можно реализовать, просто данные будут точно также передаваться по сети. Какой-то эксклюзивной поддержки VR сейчас нет, кажется рынок ещё не сформировался.

  1. Претензия не к выбору игры, а к выбору сцены.

  2. Я не увидел именно описания преимуществ AMD vs Nvidia. Максимум что в некоторых играх превосходит 3070.

  3. 5-10мс это хорошо. думал будет хуже.

  4. Нет я про другое. Вот вы передали видеокадр с сервера клиенту. Вопрос: Данный кадр гвоздями к монитору прибит, или если скажем соединение прервётся (клиент не получит кадр N+1) то игрок двигая мышкой сможет хотябы смещать текущий кадр? Т.е. в идеальном случае, если игрок смотрит на неподвижную сцену, он даже не заметит, что видеопоток прервался.

Пункт 4 имеет смысл только для VR, там 2 картинки и хитрым преобразованием можно их поменять так, чтобы компенсировать небольшие повороты головы без перерисовки кадра. И это делается на источнике сигнала а не в шлеме.

Для обычных игр это не возможно т.к. во первых нет обязательного буфера глубины, а во вторых не понятно что делать с интерфейсом. Да и ввод управляется игрой, сторонняя система не сможет угадать чувствительность мыши например.

И это делается на источнике сигнала а не в шлеме.

Возможны варианты если у шлема есть свои мощные мозги.
Например https://uploadvr.com/virtual-desktop-synchronous-spacewarp/ например

1)Это делается именно на шлеме.(в случае oculus quest 2. Был случай свет моргнул, комп ушёл в ребут. В шлеме картинка зависла, но при повороте головы она смещалась
2)В шлеме буфера глубины нет и он тоже не используется. Это заметно когда крутишь головой, а сигнал намертво завис. Если же надо достроить 1 кадр, то 2д сдвиг выглядит нормально.
3)Думаю нет ничего сложного в калибровке мыши.
4)Интерфейс да, проблема. Но я же не говорил что будет легко? Но технология для облачного гейминга выглядит интересной. Ну и потом думаю не так уж сложно поставить перед нейросетью задачу. А нука найди мне где тут интерфейс.

5)https://uploadvr.com/virtual-desktop-synchronous-spacewarp/ это не то, как вы видите на ролике тут вообще не про поворот камеры.

5) там скорее заранее отрендерено с избыточностью (что то вроде сферического изображения как в роликах для обзора в 360 градусов) для возможности моментально показать нужный ракурс картинки в зависимости от положения головы.

ну да. Но за область отрендеренного тоже позволяет перемещаться.

Ну вы же понимаете что в 2021 даже нейросети не могут дорисовать моментально то что за кадром да еще и достоверно. А значит там кадр рендерится значительно большего размера чем виден в текущем положении камеры. Так как инпут лаг при повороте головы приведет к тошноте. Там это критично важно.

А в случае с облачным геймингом критически важно время отклика.
И тут, пусть и с нюансами, но можно получить выигрышь. И мне непонятно почему не пробуют (если не пробуют).

2) для 60fps если очередь кадров на рендер удерживают на 0 (а скорее всего там 1-2, т.е. + 16-33мс) = 16мс+енкодинг+пинг+

3) для ВР шлема проще, так как координаты шлема в реальности совпадает с координатами камеры в игре. С мышью все не так. Тут нужно, что бы движок игры сообщил клиенту, как искажать кадр при смещении мыши, а это не реализовано в играх, и даже если и будет, то остаётся проблема сильного искажения изображения, так как монитор занимает в вашем зрении небольшой угол, а отображают большой игрового/виртуального пространства. В ВР шлеме наблюдаемый угол обзора равен виртуальному, т.е. смещение и искажения кадра не значительны и быстро замещаются нормальным новым кадром.

3)Достаточно калибровки. Типа N движения мыши соответствует смещению на M пикселей. Я конечно могу придумать ситуации в которых это не будет работать, но я это к тому, что технически такое реализовать можно. Это как DLSS. Конечно не настоящие 4к, но что делать если на настоящие производительности не хватает?

2. AMD хоть как-то доступен, NVIDIA скуплен майнерами. Скорее всего в этом весь ответ почему AMD.

А ведь когда-то было наоборот...

А как вы добились 5-10 мс лага? Как кодирование+декодирование удалось уместить в 5мс?

Наверное убрали буферы, убрали b-кадры, оставили 1 референсный кадр и получили дичь, а не качество, иначе никак. Или буферы и иерархическая структура референсных кадров с b-кадрами, или низкая задержка и кодек обрезан под корень. А когда кодек так обрезан, нужно использовать х2 битрейт, чтобы качество не страдало.

Когда вы говорили о metro exodus, вы взяли обычную версию или enchanced версию? Т.к. между обычной и enchanced (которая запустится только на видеокартах в rt) разница существенная и она 100% будет видна, в т.ч. есть целая куча таких сравнений на том же youtube, и там сцена меняется кардинально, это невозможно не заметить.

RTX это название проприетарной технологии nvidia. Будущее не за ней, а то что вы приравниваете ее к RT/RTRT/PathTracing говорит о том что вы не понимаете о чем рассуждаете и/или сильно подвержены влиянию отдела маркетинга корпорации nvidia.

Рекомендую вам решить эту проблему как можно скорее, тк уязвимость к корпоративной пропаганде приводит к неверным потребительским решениям.

Зашел почитать про сравнение NVENC и амудечного аналога - про PSNR, латенси кодеков и так далее, а получил рерайт статьи про RTX.

Раз есть такой запрос, рассмотрим эту тему в будущих статьях, спасибо за наводку!

А что с виртуализацией, получится пробросить одну карту на несколько машин? Quadro так могут.

Да, мы так и делаем, это технологи vGPU, но только не используем именно Quadro. Ещё важный нюанс, что при пробросе видеокарты на несколько машин, мы делим мощности видеокарты на соответствующее число, и тут стоит вопрос, нужна ли такая мощность для игр. Ведь важна не только видеопамять, которую уже научились добавлять в больших размерах, но и производительность чипа, чтобы игры в половине ресурсов работали хорошо. По нашим исследованием, половина карты уже не подходит для топовых игр, а вот для средних вполне себе.

Хотите верьте, хотите нет, по моим тестам кодер в AMD - дно, по сравнению с Nvidia, по крайней мере во всём, что до rx 6000, по сравнению с rtx 2000. А HEVC (h265) у АМД вообще мёртвый, он у них даёт качество хуже чем AVC (h264), тогда как hevc Nvidia даёт лучше качество чем их же avc и он на уровне avc закодированного кодером х264. RX 6000 я не тестировал, но сомневаюсь, что там они внезапно сделали кодер лучше чем у Nvidia. Nvidia постепенно улучшала свой кодер начиная с gtx 600 и только в rtx 3000 они оставили такой же кодер, как в rtx 2000.

Да, я охотно верю, часто натыкался на сырой AMF и посредственное качество кодировния в контесте стриминга VR и домашних медиасерверов. Потому и удивился, что это не осветили в статье.

Мне тоже не понятно почему в статье про это ни слова, тогда как именно от этого зависит итоговое качество картинки. Плюс кодера/декодера АМД в том, что он потребляет в разы меньше чем у Nvidia, он так сказать более аппаратный, тогда как у Nvidia используются cuda ядра, а не только аппаратный блок.

Так же, разница качества между АМД и Nvidia, может быть минимальная, за счёт оптимизаций кодера под низкую задержку, тогда как я тестировал наоборот с максимально возможным качеством, что даст задержку кодирования минимум 70мс, а по факту скорее всего в разы больше, что не подходит для таких сервисов.

TLDR: сделали на AMD, потому что договорились с AMD. Договорились бы с NVidia - сделали бы на NVidia.

С Nvidia уже давно и плодотворно сотрудничаем, сейчас сервера почти на Nvidia, мы лишь расширяем технологические возможности сервиса.

НЛО прилетело и опубликовало эту надпись здесь
  1. А почему лучи в метро просто сравниваются, а не с enchanced edition? Там выглядит всё намного лучше, да ещё и производительность выше.

  2. "а технология DLSS только снижает нагрузку от трассировки" это же неправда. Можно сравнить производительность в играх с DLSS и без. Даже без лучей процентов 10 даст на качестве.

А почему лучи в метро просто сравниваются, а не с enchanced edition? Там выглядит всё намного лучше, да ещё и производительность выше.

Да, вы правы, студия действительно проделала монументальную работу по улучшению трассировки лучей
Можно посмотреть здесь, например
<iframe width="560" height="315" src="https://www.youtube.com/embed/YA0jhM-l7uo" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>


«а технология DLSS только снижает нагрузку от трассировки» это же неправда. Можно сравнить производительность в играх с DLSS и без. Даже без лучей процентов 10 даст на качестве.

Тезис был скорее о том, что благодаря DLSS повышается производительность трассировки, но да, вы правы, что действительно — не только ее.

Как человек, который использует на Nvidia Now уже более 3х лет скажу, что основа любого облачного сервиса это впервую очередь то, как он кодирует изображение и справляется с нестабильностью соеденения. часто, картинка может "развалится" и на 30 Мбит/сек в такую "труху" что смотреть нереально. РТХ и прочие радости действительно вторичны. Особенно для человека у которого облако единственная точка входа в ПК гейминг в целом. Ему нужна комфортная игра в первую очередь.

За собой заметил, что поначалу использования сервиса лез выкручивать все ползунки на максимум, но потом стало как-то всёравно. Ибо у тебя вечер и есть полтора часа до сна а AC Vallhala большая и себя не пройдёт сама.

Так что, если карточки АМД помогут лучше и качественней транслировать картинку в экран конечного потребителя это будет "пушка". РТХ же это дополнение, которое отлично играет для тех людей, которые уже "наелись" графикой и хотят уже чего-то свыше. Уверен, что среди пользователей в облака таких юзеров действительно минимум.

Аппаратный кодер у АМД - дно, по сравнению с Nvidia, по крайней мере на всём, что до rx 6000, а rx 6000 я не тестировал, но сомневаюсь что там внезапно сильно подняли качество кодера, что оно стало лучше чем у Nvidia.

Важнее то, насколько близко к тебе находятся серверы. Тогда и риск дропов ниже и задержка лучше.

у вас безлимит за 3600р/мес. А майнить разве не выгоднее?

Так ведь на одной карточке больше хэшрейта не намолотишь, тогда как игроков, которые будут играть по 24 часа в сутки весь месяц, вряд ли сильно много. И одна карточка таким образом может обслуживать сразу нескольких игроков. А дальше уже богатые возможности для организации оверселлинга.

Странно, что вы не рассматриваете преимущество в наличии DLSS. С учетом сжатия-пережатия это будет неотличимо от натива, а бонус в производительности позволит намного дольше прожить на имеющейся видюхе.

Мы упоминаем DLSS, как преимущество NVIDIA. Однако отталкиваемся от того, что гейминг через облачные сервисы обычно происходит в разрешении Full HD, AMD же отлично подходит и для комфортной игры в 1440p, так что выходит, для описанных целей в DLSS нет особой нужды.

какая разница в каком разрешении играет юзер? Вы, видимо, не понимаете как работает DLSS.

И почему же вы в качестве аргумента о производительности берете рекламные материалы заинтересованной стороны - AMD? Вас не смущает, что в их тесте 3060ti подозрительно выдает одинаковый результат с 3070? Вас не смущает, что при тестировании на AMD почему-то включен SAM, а на NVIDIA не включен RBAR? Посмотрите комплексные тесты на независимых ресурсах, где выставляются одинаковые условия, подбираются все игры подряд, а не только которые лучше там или там, и вы поймете, что как минимум 3070 не хуже в 1440p даже без учета DLSS. А с DLSS даже 3060ti оставляет решение от AMD далеко позади.

Вам не нужен ray tracing...
Вам не нужен ray tracing...

Я бы так назвал статью :)

<sarcasm>RTX будет отдельно, за донат.</sarcasm>

Добавьте поддержку Ultrawide мониторов. Будет конкурентным преимуществом.

Уже несколько лет как задумываюсь над переходом в облачный гейминг, но ни у кого нет поддержки, а играть с чёрными полосами по бокам совсем не то.

Сейчас основным блокером является скорость работы енкодера и декодера, которые не поддерживают кастомные расширения. Т.к. используются аппаратные кодер и декодер, для повышенной производительности, то это ограничение со стороны железа, которое мы самостоятельно не сможем обойти.

Только 1 вопрос. Какой максимальный битрейт вы можете отдать клиенту? То что написано в статье (20 мбит 60 фпс 1080р) - это, в зависимости от настроек кодера, либо мыльцо лютое, либо квадратики. Это и близко не то, что будет на локальной машине, на локальной машине и 720р будет лучше чем такое шакальное 1080р.

Давно пробовал playkey, диспетчер задач показывал скорость 30-35 мбит - картинка дичь, просто не хочется в такое играть и всё, лучше играть на минималках на своём ПК, чем в это. Такое качество подойдёт разве что для мобилок и планшетов, даже на ноуте с экраном 15.6 уже так себе, про мониторы 24-32 дюйма и тем более телевизоры и говорить нет смысла.

У меня интернет 250 мбит, торренты качает стабильно 25 МБ/с (200 мбит), бывает поднимается до 35 МБ/с (280 мбит) в зависимости от сидов, поэтому нужен поток хотя бы 80 мбит (в идеале 120-150 мбит), иначе только если бесплатно.

все пишут про облачный гейминг, но я не смог найти информацию, можно ли организовать локальный облачный гейминг у себя дома, чтобы с 1 сервера можно было на разных машинах запускать разные игры?
Можно видеокарту «нарезать» на несколько виртуальных машин, запущенных на «сервере», и подключаться к ним с физических машин-«клиентов». В видео продемонстрировано, как несколько человек со своих ноутбуков подключились по сети к виртуалкам на ПК, в который воткнута 3080 Ti, и одновременно гоняют в контру.

Но для этого нужна видеокарта с большим объёмом памяти, поскольку видеопамять делится в равных пропорциях: при наличии видеокарты с 8 гигами памяти, каждая виртуалка получит по 4, чего для современных игр катастрофически мало.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий