Комментарии 34
А есть какие нибудь тесты, как выглядит графика через такой стрим?
А почему графика должна отличаться?
Там единственная проблема — лаги.
Там единственная проблема — лаги.
ну он же как то пережимает графику, врядли там один в один передача как с HDMI выхода видеокарты
А почему бы и нет? Скорости сети локальной думаю хватает на трансляцию в оригинале.
1920 * 1080 * 3 (3 байта на пиксель RGB) * 60 (кадров в секунду) = 373248000 байт в секунду. 373 мегабайта (3 гигабита) в секунду несзжатый поток 1080р 60fps
Существуют же lossless видео кодеки
кодеки? h264 по ссылке как минимум несет картинку в формате 4:2:0, а это значит она будет заблюрена, просто по факту формата как такового. Даже если кодек будет настроен не делать кадры из разницы следующего и предыдущего, или не знаю как там они добиваются того что они называют 'loseless', но картинка будет заблюрена это точно.
возможно на телевизоре этого и не видно будет, но блин, покупать видео-карту за n00 долларов которая изо всех сил будет обсчитывать миллионы полигонов со всей их четкостью, чтобы потом просто смазать все при передаче?.. купить playstation4 и то эффективней будет.
возможно на телевизоре этого и не видно будет, но блин, покупать видео-карту за n00 долларов которая изо всех сил будет обсчитывать миллионы полигонов со всей их четкостью, чтобы потом просто смазать все при передаче?.. купить playstation4 и то эффективней будет.
Эмм… А как тогда Blu-ray с битрейтом 36—216 Мб/с живет? Просто хочу разобраться.
видео формат изначально несет 4:2:0 картинку, поэтому видео кодеки и ориентированы на нее. нет смысла хранить полную информацию для исходника который уже несет половину. 4:4:4 картинка обычно только на монтаже, это исходник. собственно это сразу уполовинивает размер. да и позволяет применять кодеки, тот же самый mpeg2, который сжимает не сильно, как jpeg с максимальными настройками.
если вкратце что это за 4:2:0 и 4:4:4 это байты на точку — 4:4:4 это по байту на Y (яркость точки, выглядит как черно белая картинка), U и V (цветоразность, то, по чему можно восстановить цвет имея их обе). Либо просто RGB, где тоже по байту на цвет. А 4:2:0 это YUV где есть байт на Y (яркость точки, черно белая картинка), а вот U и V в два раза меньше (в четыре раза меньше точек на каждую), и применяются по одной точки на 4 из Y. Т.е. яркость точки, черно-белая картинка, равна исходнику и контрастность деталей та же самая, но цветовая информация по 1-й точке на 4 соседа. Из-за того что яркость все-таки присутствует на каждую точку все цветовые переходы достаточно плавные и все это выгядит как легкое замыливание только цветовой информации. Зато в два раза меньше размер (байт на Y, 1/4 на U и 1/4 на V).
собственно я не говорю что очень много будет потеряно, разница будет не громадная, возможно даже приятная глазу (эффект всего этого — такое легкое замыливание всей картинки), просто все-таки это не трансляция в оригинале и как минимум люди трудились, соединяли миллионы транзисторов в видео карте чтобы получить ту самую четкость которую требуют миллионы геймеров по всему миру, чтобы потом они пустили все это по пережатому каналу на телевизор… обидно.
если вкратце что это за 4:2:0 и 4:4:4 это байты на точку — 4:4:4 это по байту на Y (яркость точки, выглядит как черно белая картинка), U и V (цветоразность, то, по чему можно восстановить цвет имея их обе). Либо просто RGB, где тоже по байту на цвет. А 4:2:0 это YUV где есть байт на Y (яркость точки, черно белая картинка), а вот U и V в два раза меньше (в четыре раза меньше точек на каждую), и применяются по одной точки на 4 из Y. Т.е. яркость точки, черно-белая картинка, равна исходнику и контрастность деталей та же самая, но цветовая информация по 1-й точке на 4 соседа. Из-за того что яркость все-таки присутствует на каждую точку все цветовые переходы достаточно плавные и все это выгядит как легкое замыливание только цветовой информации. Зато в два раза меньше размер (байт на Y, 1/4 на U и 1/4 на V).
собственно я не говорю что очень много будет потеряно, разница будет не громадная, возможно даже приятная глазу (эффект всего этого — такое легкое замыливание всей картинки), просто все-таки это не трансляция в оригинале и как минимум люди трудились, соединяли миллионы транзисторов в видео карте чтобы получить ту самую четкость которую требуют миллионы геймеров по всему миру, чтобы потом они пустили все это по пережатому каналу на телевизор… обидно.
Я играю по steam In-home streaming, так как нет возможности подключить экран к компьютеру и сидеть около него.
FullHD @ 60Hz, в большинстве игр видны артефакты от сжатия, и хост и клиент — мощные машинки, соединены проводом, хороший роутер, но битрейта не хватает.
Причем довольно странно, во всяких внутриигровых cut-сценах никаких артефактов не видно, картинка будто на дисплее, подключенном напрямую к компьютеру, но как только cut-сцена заканчивается, качество серьезно падает и становятся видны артефакты. Возможно cut-сцены имеют меньшую частоту кадров (30 FPS например), но вряд ли это относится ко всем играм. Наблюдал это в Far Cry 3, Assassin's Creed 4, GTA 5, Battlefield 4. В Dota 2 и Heroes of the Storm артефактов как-будто бы нет.
FullHD @ 60Hz, в большинстве игр видны артефакты от сжатия, и хост и клиент — мощные машинки, соединены проводом, хороший роутер, но битрейта не хватает.
Причем довольно странно, во всяких внутриигровых cut-сценах никаких артефактов не видно, картинка будто на дисплее, подключенном напрямую к компьютеру, но как только cut-сцена заканчивается, качество серьезно падает и становятся видны артефакты. Возможно cut-сцены имеют меньшую частоту кадров (30 FPS например), но вряд ли это относится ко всем играм. Наблюдал это в Far Cry 3, Assassin's Creed 4, GTA 5, Battlefield 4. В Dota 2 и Heroes of the Storm артефактов как-будто бы нет.
У них (Steam) написано, что крайне желательно подключение по проводу или как минимум Wi-Fi 100Mbit (который не у всех есть). Так что лаги точно будут.
Будут зависания звука и падение качества картинки (bitrate уменьшается), но в целом лагов может и не быть. Однако играть, когда картинка внезапно может расплыться, не очень приятно.
Играл у себя дома прямо рядом с роутером. Импутлаг хоть и слабый, но все же заметный. Играть в нечто динамичное было бы невозможно. Собственно, пофиг на графику и мыло. Импутлаг всё портит.
А потому что даже на очень больших битрейтах получается мыло. И уж никак я не поменяю прямое подключение по HDMI на это.
То есть эффект замыливания никуда не деть? Он так заметен, из-за того что есть с чем сравнивать? Когда я смотрю видео из того же BF4 на ютубе, я не замечаю мыча, хоть там те же 1080p, как-то по-другому пожато?
P.S. Впрочем да, мыло действительно и там.
P.S. Впрочем да, мыло действительно и там.
Пробовал стримить стим и напрямую, заметны проблемы на границах объектов, в динамических играх это особо и не заметно, некогда смотреть, а вот в спокойных замечается еще как.
Пару недель назад натыкался на ролик на ютубе, где как раз показан этот способ. По крайней мере на видео выглядит все достойно
Видео
Вот здесь, есть видео как это работает на windows habrahabr.ru/post/223999
Дабы не умножать печалей видео вставлять не стал
Дабы не умножать печалей видео вставлять не стал
Могу показать несколько скринов или записей, сделанных параллельно на хосте и клиенте, при использовании steam in-home streaming (не совсем то, о чем говорится в после, но все же).
Какую именно модель и ревизию Raspberry вы использовали?
А для компьютера-источника, является обязательным наличие видеокарты GeForce не хуже чем GTX 650 и установленный GeForce Experience.
AMD нельзя?
Непонятно, почему автор не пытается стримить через встроенную функцию стима.
Можно, называется Gaming Evolved. Но ее по понятным причинам (у меня, таки GForce) не пробовал.
Жаль, я думал вы нашли способ запустить стимовский клиент и Steam In-home streaming. Про limelight читал раньше
НЛО прилетело и опубликовало эту надпись здесь
Кстати разработчик переписал этот проект на си
Если да — отпишите пожалуйста о результатах.
Moonlight Embedded is a complete rewrite of Limelight Embedded written in C instead of Java for much better performance. All the functionality of the java version has been ported.После этого была пара релизов с исправлениями. Никто не пробовал устанавливать на pi си-шную версию?
Если да — отпишите пожалуйста о результатах.
Кстати, java клиент возможно не поддерживает новые GeForce Expirience
При попытке pair вы получите ошибку
При попытке pair вы получите ошибку
GFE error: The client is not authorized. Certificate verification failed. (Error code: 401)Подробности тут github.com/irtimmer/moonlight-embedded/issues/169
The old Java client doesn't work with newer GFE versions. You'll have to use the new C client. Instructions for installing the package are in the readme.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Стримминг Steam игр на Raspberry PI