Pull to refresh

Comments 34

А есть какие нибудь тесты, как выглядит графика через такой стрим?
А почему графика должна отличаться?
Там единственная проблема — лаги.
ну он же как то пережимает графику, врядли там один в один передача как с HDMI выхода видеокарты
А почему бы и нет? Скорости сети локальной думаю хватает на трансляцию в оригинале.
1920 * 1080 * 3 (3 байта на пиксель RGB) * 60 (кадров в секунду) = 373248000 байт в секунду. 373 мегабайта (3 гигабита) в секунду несзжатый поток 1080р 60fps
кодеки? h264 по ссылке как минимум несет картинку в формате 4:2:0, а это значит она будет заблюрена, просто по факту формата как такового. Даже если кодек будет настроен не делать кадры из разницы следующего и предыдущего, или не знаю как там они добиваются того что они называют 'loseless', но картинка будет заблюрена это точно.
возможно на телевизоре этого и не видно будет, но блин, покупать видео-карту за n00 долларов которая изо всех сил будет обсчитывать миллионы полигонов со всей их четкостью, чтобы потом просто смазать все при передаче?.. купить playstation4 и то эффективней будет.
Эмм… А как тогда Blu-ray с битрейтом 36—216 Мб/с живет? Просто хочу разобраться.
видео формат изначально несет 4:2:0 картинку, поэтому видео кодеки и ориентированы на нее. нет смысла хранить полную информацию для исходника который уже несет половину. 4:4:4 картинка обычно только на монтаже, это исходник. собственно это сразу уполовинивает размер. да и позволяет применять кодеки, тот же самый mpeg2, который сжимает не сильно, как jpeg с максимальными настройками.
если вкратце что это за 4:2:0 и 4:4:4 это байты на точку — 4:4:4 это по байту на Y (яркость точки, выглядит как черно белая картинка), U и V (цветоразность, то, по чему можно восстановить цвет имея их обе). Либо просто RGB, где тоже по байту на цвет. А 4:2:0 это YUV где есть байт на Y (яркость точки, черно белая картинка), а вот U и V в два раза меньше (в четыре раза меньше точек на каждую), и применяются по одной точки на 4 из Y. Т.е. яркость точки, черно-белая картинка, равна исходнику и контрастность деталей та же самая, но цветовая информация по 1-й точке на 4 соседа. Из-за того что яркость все-таки присутствует на каждую точку все цветовые переходы достаточно плавные и все это выгядит как легкое замыливание только цветовой информации. Зато в два раза меньше размер (байт на Y, 1/4 на U и 1/4 на V).
собственно я не говорю что очень много будет потеряно, разница будет не громадная, возможно даже приятная глазу (эффект всего этого — такое легкое замыливание всей картинки), просто все-таки это не трансляция в оригинале и как минимум люди трудились, соединяли миллионы транзисторов в видео карте чтобы получить ту самую четкость которую требуют миллионы геймеров по всему миру, чтобы потом они пустили все это по пережатому каналу на телевизор… обидно.
Я играю по steam In-home streaming, так как нет возможности подключить экран к компьютеру и сидеть около него.
FullHD @ 60Hz, в большинстве игр видны артефакты от сжатия, и хост и клиент — мощные машинки, соединены проводом, хороший роутер, но битрейта не хватает.
Причем довольно странно, во всяких внутриигровых cut-сценах никаких артефактов не видно, картинка будто на дисплее, подключенном напрямую к компьютеру, но как только cut-сцена заканчивается, качество серьезно падает и становятся видны артефакты. Возможно cut-сцены имеют меньшую частоту кадров (30 FPS например), но вряд ли это относится ко всем играм. Наблюдал это в Far Cry 3, Assassin's Creed 4, GTA 5, Battlefield 4. В Dota 2 и Heroes of the Storm артефактов как-будто бы нет.
У них (Steam) написано, что крайне желательно подключение по проводу или как минимум Wi-Fi 100Mbit (который не у всех есть). Так что лаги точно будут.
Будут зависания звука и падение качества картинки (bitrate уменьшается), но в целом лагов может и не быть. Однако играть, когда картинка внезапно может расплыться, не очень приятно.
Играл у себя дома прямо рядом с роутером. Импутлаг хоть и слабый, но все же заметный. Играть в нечто динамичное было бы невозможно. Собственно, пофиг на графику и мыло. Импутлаг всё портит.
Честно говоря в BF4 не заметил input lag'а, возможно я так долго не играл на нормально мониторе, что потерял чувствительность к нему. Но не могу сказать, что у меня хорошо получается играть в BF по in-home streaming, как минимум из-за смазывания картинки очень сложно целиться в противников.
А потому что даже на очень больших битрейтах получается мыло. И уж никак я не поменяю прямое подключение по HDMI на это.
То есть эффект замыливания никуда не деть? Он так заметен, из-за того что есть с чем сравнивать? Когда я смотрю видео из того же BF4 на ютубе, я не замечаю мыча, хоть там те же 1080p, как-то по-другому пожато?
P.S. Впрочем да, мыло действительно и там.
Пробовал стримить стим и напрямую, заметны проблемы на границах объектов, в динамических играх это особо и не заметно, некогда смотреть, а вот в спокойных замечается еще как.
Играя в Battlefield 4, размытие высокочастотной составляющей сильно сказывается на моей способности замечать противника на средней-дальней дистанции и в низкоконтрастном окружении :(
Пару недель назад натыкался на ролик на ютубе, где как раз показан этот способ. По крайней мере на видео выглядит все достойно
Видео

Они говорят 60 FPS лагает, поэтому играют в 30.
Ладно по прежнему буду играть с 5м HDMI кабелем)
Вот здесь, есть видео как это работает на windows habrahabr.ru/post/223999
Дабы не умножать печалей видео вставлять не стал
Могу показать несколько скринов или записей, сделанных параллельно на хосте и клиенте, при использовании steam in-home streaming (не совсем то, о чем говорится в после, но все же).
Какую именно модель и ревизию Raspberry вы использовали?
А для компьютера-источника, является обязательным наличие видеокарты GeForce не хуже чем GTX 650 и установленный GeForce Experience.

AMD нельзя?
Непонятно, почему автор не пытается стримить через встроенную функцию стима.
Я стримил себе на планшет с десктопа, оборудованного недовидеокартой R7 250 с DDR3 памятью или вообще встроенной Intel HD4600. Так что требования какие-то завышенные, на мой взгляд
Так там нужно залогиниться в стим с локальной машины — на RPI клиента steam вроде как нету.
Можно, называется Gaming Evolved. Но ее по понятным причинам (у меня, таки GForce) не пробовал.
Жаль, я думал вы нашли способ запустить стимовский клиент и Steam In-home streaming. Про limelight читал раньше
UFO just landed and posted this here
В игре CoD Advanced Warfire в сетевых режимах задержек ввода замечено не было.
Кстати разработчик переписал этот проект на си
Moonlight Embedded is a complete rewrite of Limelight Embedded written in C instead of Java for much better performance. All the functionality of the java version has been ported.
После этого была пара релизов с исправлениями. Никто не пробовал устанавливать на pi си-шную версию?
Если да — отпишите пожалуйста о результатах.
Кстати, java клиент возможно не поддерживает новые GeForce Expirience
При попытке pair вы получите ошибку
GFE error: The client is not authorized. Certificate verification failed. (Error code: 401)
Подробности тут github.com/irtimmer/moonlight-embedded/issues/169
The old Java client doesn't work with newer GFE versions. You'll have to use the new C client. Instructions for installing the package are in the readme.
Sign up to leave a comment.

Articles