Как стать автором
Обновить

Комментарии 23

Есть ютуб премиуим. Решил купить фильм в UHD. При попытке его просмотра максимальное разрешение 480p. Вот это настоящий премиум!

НЛО прилетело и опубликовало эту надпись здесь
Кажется Нетфликс и/или ЭпплТВ так же страдают непонятно чем. Зачем эти искусственные ограничения, если фильм уже 100% давно содран пиратами. Но это скорее вопрос к копирастам.
Давным давно пора. В динамичных сценах при некоторых условиях(тканевые сети и другие решётчатые материалы), качество падает визуально(в настройках прибито гвоздями 1080р) до 360р и ниже, картинка просто рассыпается. Кодек по видимому на такое просто не рассчитан.

Пару лет назад началось значительное проседание по качеству картинки, в т.ч. связанное с ограничениями кодирования на GPU. Видео не станет лучше, оно станет таким как было. На reddit есть упоминания про VP9, другие пресеты и более высокий битрейт для популярных каналов.

Довольно странно наблюдать 60fps, но с квадратиками вместо тёмных сцен, уж лучше меньший fps.

Я неоднократно ставил эксперименты и могу с уверенностью утверждать, что для кодеков x264/x265 разница в итоговом размере файла при 30 фпс и при 60 - стремится к нулю. Квадратики на темном/градиентном фоне - вообще в прямой зависимости от битрейта.

разница в итоговом размере файла при 30 фпс и при 60 — стремится к нулю.
Потому что это inter-frame compression кодеки, большую часть объема в которых занимают референсные кадры (i-frames). При увеличении частоты кадров новых ключевых кадров не появляется, потому что они ставятся там, где второстепенные кадры (b- и p- frames) перестают справляться с жонглированием частями кадра — например, при смене кадра (scenecut).

TL;DR: чем больше в кадре разных сцен, тем больше файл. Частота кадров не зависит и не влияет на частоту смены сцен.

Ну логично, да. Вообще, мне очень понравился x265 - он дает в среднем в 2-3 раза меньший итоговый размер файла против x264 при тех же параметрах кодирования (предпочитаю Constant Quality==22, PSNR, Level=4.1). При этом, если в видео фон очень простой - то разница бывает и в 10, а иногда и в 100 раз! Т.е. буквально - получасовое видео может занимать 15-18 мб (без учета звука), а в x264 - 180 и более.
Проблемы у x265 начинаются на видео с природой - эффективность стремительно падает и в лучшем случае будет такой же размер, что и в x264. Иногда - чуть больше.

Ну и, конечно, скорость работы... 30-50 фпс на Ryzen 7950x - это печально

З.Ы.: пробовал еще и av1, но в итоге он работает медленнее, чем x265 и в итоге выдает худшее качество и больший размер.

Проблемы у x265 начинаются на видео с природой
Потому что преимущество x265 в основном в том, что у него больше максимальный размер макроблока (64x64 против 16x16). Но на природе очень много мелких движущихся деталей — особенно растительности. Там просто не получается макроблоков такого размера.
А вот статичный план на штативе, да еще и в 4К, какая-нибудь говорящая голова — там очень большой прирост эффективности, например, на стенах и мебели, которые все видео не меняются и отрабатываются жирными макроблоками.

З.Ы.: пробовал еще и av1, но в итоге он работает медленнее, чем x265 и в итоге выдает худшее качество и больший размер.
Вы скорее всего что-то не так настроили. Он должен быть равен или лучше. В любом случае, будущее за ним, потому что x265 не свободный.

В своё время мне попадался на глаза "лайфхак", что видео нужно грузить в 4К, тогда YT при транскодировании в 1080р меньше портит битрейт.

И если включить "статистику для ботаников", то можно увидеть, что для 1080p30 используется vp9, а для 1080p60 - av1.

Также некоторые ролики 4K30fps используют vp9, а транскодируются в 1080p30fps av1.

При 4к начинаются фризы при воспроизведении. Секунду все двигается хорошо, потом маленький фриз, и снова секунду хорошо..

Вероятно ЦП дохлый. Мой тоже относительно старый(i5 7600k) и проигрывание 4к видео на ютубе его серьёзно нагружает. Однако сохранённые ролики так его не нагружают, другой формат.
Тоже не хватает качества при просмотре 1080. Но это легко решается включением разрешения 1440р, тогда картинка на 1080 экране получается идеальной.

1080p это вдвое подниженная частота кадров при том же битрейте. Я бы сказал, что наоборот -- построчная (а не черестрочная, как в 1080i) развёртка -- это деградация. Если бы не одно но: современные телевизоры, в отличии от антикварных с хрустальным кинескопом, не умеют толком отображать черезстрочную развёртку. Они вынуждены заниматься интерполяцией, чтоб понять, что показать в чётных/нечётных строчках в каждом следующем кадре. Потому, что "не показать ничего", чёрное поле, для них не вариант: пользователь заметит мерцание. А с интерполяцией в условиях движущейся картинки получается плохо, возникает всем известная гребёнка.

Подниженная частота кадров же -- отсутствие эффекта плавного движения. Движение рывками. Тоже ничем не лучше. Невозможно читать скроллирующийся (плывущий) текст, трудно воспринимать фильмы (всё дёрганое).

В кино всего лишь 24 кадра в секуду, а не 50/60 как в телевидении, но это совершенно другие кадры. Впрочем и в телевидении с хрустальным монитором кадры тоже совершенно другие нежели в современных ЛСД-телевизорах. И проблема имено в последних. Чтоб понять в чём дело, нужно заметить различие в принципе работы кинопроектора, хрустального телевизора и современного ЛСД-дисплея:

  • в кинопроекторе изначально кадр перекрыт обтюратором (заслонкой), плёнка перемещается, потом плёнка останавливается, обтюратор открывается и на коротки промежуток времени на экране появляется кадр, потом обтюратор снова закрывается и плёнка снова двигается...

  • в хрустальном кинескопе луч высвечивает в какой-то момент времени один "пиксель" на экране, при этом люминофор инертен и относительно высокую яркость сохраняют последние несколько десятков строк, остальной же экран -- тёмный;

  • в современном ЛСД-телевизоре постоянно на всём экране изображается неподвижное изображение и лишь раз в ~20мс оно сменяется на следующий кадр.

В итоге имеем, что и в кино, и в телевидении с хрустальным монитором человеческий глаз видит как бы мгновенные значения пикселей в остановленном кадре. В кино -- мгновенное остановлен весь кадр, в телевидении -- отдельные пиксели остановлены в разное время. А между вспышками отдельных кадров, или отдельных пикселей -- темнота. И глаз ориентируясь на вспышки мгновенных значений может самостоятельно следить за плавно движущимися объектами. С ЛСД-монитором так не получится, т.к. с точки зрения глаза да и практически объекты на экране не движутся плавно, а сдвигаются рывками раз в 20мс. В итоге "отсутствие мерцания", но совершенно невозможно смотреть никакие динамичные сцены, только слайд-шоу. С хрустальным телевизором мы видели мгновенные значения в отдельные моменты времени, а в ЛСД-телевизоре весь промежуток между этими отдельными моментами заполнили статической картинкой, фактическое содержание которой не соответствует воображаемой картине, т.к. остаётся неподвижным в промежутках. А у человека глаз же воспринимает картинку не как видеокамера, там нет своей кадровой развёртки, зато мышцы зрачок двигают с определённой скоростью чтоб следить за всем что двигается. В итоге полная ерунда.

Изначально телевидение высокой чёткости ориентировалось на что-то наподобии хрустального кинескопа, где бы строки изображения не висели как вкопанные между (полу)кадрами, и тогда прогрессивная развёртка очень даже осмысленна, т.к. ценой незначительного увеличения мерцания вдвое повышает частоту полукадров и движущиеся изображения становятся куда менее рваными. Но прогресс зашёл куда-то не туда с массовым выпуском ЛСД-дисплеев.

Конечно, есть телевизоры с очень высокой частотой кадров (200Гц) и разными алгоритмами интерполяции изображений, и там получается может даже не плохо. Но в дешёвом сегменте -- либо 30Гц построчной развёртки, либо 60Гц через-строчной. Как в 30Гц будут ложиться фильмы с частотой 24 кадра в секунду наверное уже понятно: не только всё дёрганое будет, но и рваное, дёргаться будет с разной скоростью: каждый 5-й кадр будет выброшен (24 * 5 vs 30 * 4).

На мой взгляд -- это деградация, вызванная не способностью освоить показ через-строчной развёртки на современных дисплеях. Качественный "деинтерлейс" требует сложных вычислений и высокой частоты кадров.

В своё время спросил на форуме про видеокамерами, зачем нужен интерлейсный режим. Все «эксперты» знатно отбомбились, но внятного ничего не сказали.

Интерлейсный режим нужен для телевещания для сохранения совместимости со старыми ЭЛТ телевизорами. Большинство телестудий, которые осуществляют эфироне вещание до сих пор работают в черезстрочной развертке. Эти студии принимают контент обычно в формате 1080i50.

Так же есть формат 1080psf25 - это прогрессивный формат который передаётся через видеотракты тракты в виде interlace сигнала. Принципиальное отличие - момент "захвата" строки: в interlace 50 настоящих полукадров, в psf - 25 полных кадров попилено на 50 полукадров.

Хорошо, но зачем интерлейс в камкодере?

Интерлейс позволяет вдвое повысить (полу)кадровую частоту при сохраненнии полосы пропускания (битрейта). За счёт пониженного (в пределах полукадра) вертикального разрешения и мерцания чётных/нечётных строк.

Его в телевидении изначально изобрели не для "совместимости с телевизорами", а для получения лучшего качества движущегося изображения на экране с одной стороны, и для снижения мерцания телевизионного экрана (как ни странно!) с другой. Т.к. при более высокой частоте (полу)кадров мерцание экрана в целом менее заметно (а мерцание чётных/нечётных строк куда менее заметно).

Зачем: чтоб записать видео, которое можно проиграть на телеке способном показать 1080i. Любой телек должен уметь. А 1080p -- не любой, там низкая частота кадров и т.д. и т.п. 1080p 60Гц же -- совсем не любой телек и вдвое больший битрейт.

Но ведь никто прямо из камеры файлы m2ts не смотрит на телеке?

Для того чтобы изображение не было "дерганым" при низкой частоте кадров (25 в нашем случае) нужно на камере правильно настраивать shutter speed.
В кино при 24 кадрах ничего не "дергается" благодаря motion blur-у (размытие дрижущегося изображени), что достигается относительно "долгой" выдержкой. При этом в кино двойная частота кадров (48) пока не прижилась по ряду причин.
"Стандартной" выдержкой считается 180 градусов (1/50 сек при 25 fps или 1/100 сек при 50 fps), при такой выдержке изображение будет уже достаточно "смазано" при движении в кадре чтобы не было заметно рывков. В зависимости от характера движений в кадре оператор может подстраивать выдержку и при должном уровне знаний и сновроки у профессионалов не заметно дерганий даже при 24 и 25 кадрах в секунду.
Хочу обратить внимание что многие фотоаппараты, потребительские видеокамеры, телефоны очень часто для регулировки экспозиции управляют именно скоростью затвора, в итоге - при большой оствещенности (днём на улице) изображение на видео действительно может заметно "дергаться", при этом на стоп-кадре картинка идеально чёткая.

Окстись, про длинную выдержку прямо во время съёмки фильмов забыли уже в прошлом веке (ну кроме всякого артхауса). Сейчас все фильмы снимают на максимально короткой выдержке (как на мобилке), чтобы потом дорисовать CG и всё такое, а затем в постобработке программно воссоздают любую нужную выдержку и смазы движения, в том числе недостижимые в реальном мире.

А дёрганья на низком fps заметны на любом большом экране. Только лишь на экране мобилки не так заметны из-за маленького эркана.

Какой феерический бред. Весна что ли наступила ?
Какие нахрен обтюраторы ? Во всех современных кинотеатрах цифровые проекторы.
Какое нахрен плавное движение в 24fps благодаря "обтюраторам" ? Стобоскоп везде, как был, так и остался, хоть в плёнке, хоть в цифре, хоть в шлеме, хоть в голограмме, если подавать низкую частоту кадров. Физику не обманешь, если при быстром движении объект на экране перепрыгивает сразу 10 метров из-за устаревшей низкой частоты кадров, то хоть обклейся обтюраторами или кинескопами, плавности движения не будет.

Многие ТВ умеют вставлять чёрный кадр между кадрами, создавая таким образом 120->240fps, но это делают для снижения шлейфа, так как матрица не супербыстрая. В том же OLED это не нужно делать.

Полукадры (interlace), которые ты почему-то так хвалишь - это было придумано тупо от безисходности, в попытках вместить высокую частоту кадров в низкий поток радиопередатчиков, просто посчитали что пипл схавает, если передавать в 2 раза меньше информации, и никому из зрителей суперчёткость в те времена будет не нужна, движение кое-как передаёт, ну и ладно.

Телевизоров с 30fps не бывает, они все минимум 60(50). Просто у дешёвых (в том числе 4k) будет супертормозная матрица на 60Hz с гигантским шлейфами, которые будут превращать быстродвижущуюся картинку в кашу.
Но если по EDID ТВ поддерживает 24fps (а это почти все тв), то частота обновления ТВ будет именно 24fps, и дёрганных/рваных кадров не будет. Но стробоскоп из-за низкой частоты кадров никуда не исчезнет (если нет интерполяции).

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости