Комментарии 121
Открытый AV1 всё еще в процессе своего становления, а поддерживается уже лучше.Поддержка — это хорошо, но со скоростью кодирования там все анекдотично плохо было последний раз, когда я проверял. Что-то принципиально изменилось? Если нет, то AV1 будет прерогативой только гигантов вроде гугла и амазона.
Ну сейчас он в зависимости от контента может показать чуть лучшее качество чем x265 placebo и libvpx-vp9 с максимальным пресетом. При этом по скорости от +- одинаково, до того что rav1e в 2 раза медленее.
Но так же иногда vp9 и h265 показывают лучше качество, так что пока спорно.
libaom же реально может в лучшее качество, но как вы и сказали скорость кодирования там просто смешная.
Есть ещё svt-av1 но у меня нету железа с avx2 чтобы нормально его протестировать, а на моём железе при равной скорости с rav1e, по качеству он хуже.
Но другое дело что h265 не работает в вебе, а av1 работает прямо сейчас.
Но другое дело что h265 не работает в вебе, а av1 работает прямо сейчас.Да, у Google с этим проблем нет, любой их стандарт сразу залетает в 70% браузеров, остальным просто некуда деваться.
Я надеюсь, что Вы не пробуете декодировать h.265 на интеграшках Celeron/Pentium 10-летней давности.
Вы путаете открытый со свободным.
Действительно свободная лицензия в рамках системы копирайта — CC0 на исходники для открытых проектов и CC0 на бинарники для закрытых проектов.
Потому что в той же Википедии в статье «Open format» приведено несколько определений, часть которых прямо, а часть — косвенно упоминают бесплатность (royalty-free).
Под пунктом «State of Minnesota»?
Например, в определении от Sun есть «based on an underlying Open Standard», а среди определений оного уже много где про royalty free.
В определении правительства США есть «without restrictions that would impede the re-use of that information» — требование платы не позволяет его использовать в FOSS-продуктах, что можно посчитать как „impedes the re-use“.
И т.д.
Это даже не смешно, да и остальная статья… pdf имеет проприетарные расширения, тем не менее это открытый формат.Т.е., вы критикуете существующие определения «открытого формата» потому что вы считаете PDF открытым форматом, а они — нет?
Ещё раз: вы можете как-то обосновать эту свою позицию?
Вот, в Open Definition тоже прописано, что Open Format — это «An Open Data Format is a format with, “a freely available published specification which places no restrictions, monetary or otherwise, upon its use”».
Тоже переписать?
Может кто-то ответить зачем ещё уменьшать битрейт? Почему бы наконец не повысить качество, которое сейчас просто никакое при просмотре онлайн?
10 гб для 4к 90 минутного уже мало, а 5 гб совсем мало, ну не дают все эти кодеки такой прирост как заявляют, прирост этот только в метриках, а не визуально.
1) Если же говорить про телефоны, то не думаю что кто-то отличает на телефоне Blu-ray от UHD Blu-ray, даже если смотреть на экран с 10-15 см. Значит 4к не нужен в телефонах и лучше иметь нормальный FHD, так и зарядки меньше тратится.
2) И наоборот, если говорить про 4к на ПК, на 30 дюймовом мониторе будет хорошо видно, что 5 гб в новом кодеке хуже чем 10 гб в старом, да и 10 гб в этом случае маловато, вот 20 гб уже нормально, но бывает и лучше.
Сколько раз сравнивал h264 и h265 используя кодеры x264, x265, с разными пресетами. Если делать размеры ориентируясь на заявленный прирост, то h265 хоть и выглядит хорошо, но видно что как-то синтетично и мне такое не нравится. А если сравнивать кодеки при одинаковом размере файла, то конечно h265 лучше.
Плюс скорости кодирования, x265 и так может кодировать очень медленно и выдавать качество почти как у av1, а если новый ещё в 10 раз медленнее, то использовать его мало кто будет.
3) h265 нету в вебе поэтому что он платный, он поддерживается вроде только двумя браузерами EDGE и safari, так с чего же в mpeg решили (или так решил автор статьи?), что такой же платный h266 будет поддерживаться браузерами?
А вот av1 поддерживается браузерами, можно сказать всеми, кроме safari и уже используется ютубом и нетфликсом.
Поэтому не думаю что h266 будет в вебе.
Может кто-то ответить зачем ещё уменьшать битрейт? Почему бы наконец не повысить качество, которое сейчас просто никакое при просмотре онлайн?
вы же сами ответили:
А если сравнивать кодеки при одинаковом размере файла, то конечно h265 лучше.
качество, которое сейчас просто никакое при просмотре онлайн?
Так это проблема интернета. Переключите на fullhd, качество будет нормальным. Вот только будет кэшироваться постоянно, т.к. будет не успевать скачиваться.
Для этого и нужно более высокое качество при том же размере файла (вы сами отметили, что это так). Что бы взять файл чуть по-меньше, что бы он успевал передаваться.
1080р сейчас тянется даже по 3G и иногда даже с запасом.
Я ниже расписал подробнее, не буду повторяться.
1080р сейчас тянется даже по 3G и иногда даже с запасом.
Интересный у вас 3G. Раз в пять толще обычного.
я смотрю только 1440р
Можете дать ссылку или название сайта, где-то есть фильмы в 1440р?
4к не нужен в телефонах и лучше иметь нормальный FHD
я смотрю только 1440р и 4к если оно доступно и на телефоне
Лучше иметь FHD, но смотрите только 1440 и выше. Ясно, понятно.
Самое смешное, что у ютуба явный приоритет битрейта на 1440р и 4к.
То есть по размерам разница 1080р и 4к в 4 раза, а по битрейту бывает что 4к в 7-8 раз больше чем 1080р, в среднем же в 6 раз больше чем 1080р.
Ну и с 1440р тоже +- так же.
У меня просто расширение savefromnet и я сразу в 1 клик виду все размеры во всех доступных кодеках и разрешениях.
Смешно, но я так один раз скачал с ютуба 4к белый шум с битрейтом в 600 или 900 мбит вроде. 10 секундный видос был. А вот в 1080р его битрейт был 20 мбит вроде и конечно от шума там остались одни артефакты.
Но спустя пол года этот видос пропал с ютуба, не знаю уж его ютуб удалил из-за такого глюка или сам автор, но у меня этот видос есть до сих пор и могу скинуть если интересно.
Самое смешное, что у ютуба явный приоритет битрейта на 1440р и 4к.Ну 1440Р — это всегда производная из 2160P, а пережимать последний гугл пока просто не рискует, я думаю, пока у него ореол «премиума». Пойдет 8К в массы, битрейт 4К тоже до смешных значений уронят ограничением сверху.
Ну вот когда я последний раз смотрел 8к, то 8к по битрейту был ну на 30% больше чем 4к. Много битрейта добавляет HDR, который ещё далеко не везде посмотришь и его ещё меньше чем обычного 4к.
Одни бесплатный, который якобы как h265 по качеству и 2 платных.
Сам h266 вроде самый лучший типо, а под игры вроде тот что бесплатный.
Всё таки это совсем разное, тот же h265 с отключенными некоторыми фильтрами деблокинга, в играх показывает качество почти как h264, тогда как со всеми плюшками он наоборот мылит игры сильно, но хорош для фильмов и мультфильмов.
Но в любом случае пока что x264 кодер лучший для игр.
Ну есть ещё игры, я много игр смотрю, они в 1440р.А есть пример популярного канала, где видео в 1440Р максимум, а не в 2160Р? Да и на стримах вроде больше 1080Р не осилили еще.
Вот например www.youtube.com/c/Amway921WOT, да знакомый мой тоже 1440р стримил много времени, никаких проблем. Конечно с процессора такое не постримишь через x264.
Видосы с монтажём по сути сложнее делать в 4к и 1440р, чем просто стримить.
просто они по каким-то причинам не стримят 4к и 1440р, может у них интернет совсем слабый.Вот и я о чем. А не стримят потому, что платформы такой возможности не предоставляют. Там на 1080P дают 5000 кбит, ЕМНИП, какой 4К…
UP: Уточняю
While popular, the video behemoth's main streaming competitor, Twitch, currently lacks the bandwidth to support 4K streaming. Twitch servers typically limit streamers to a bandwidth of 3.5 Mbps (and a 4K stream can require more than double that).
Ну так не надо на этот твич стримить и всё.
Ютуб принимает столько, сколько позволяет интернет.
Я спокойно стримил на ютуб 40 мбит поток.
Знакомый переодически стримит 4к 25 мбит, но он играет в онлайн игру, а так бы тоже поставил битрейт 30-35 мбит.
Видосы вообще заливал сжатые без потерь, никаких проблем.
Ютуб принимает столько, сколько позволяет интернет.Технически, YouTube все равно на лету дожимает видео до каких-то определенных значений, которые я, правда, не нашел.
Поэтому от вас он принимает сколько угодно, а зрителям отдает уже другой битрейт:
Also, the amount you send us in no way impacts the bandwidth requirement for users. YouTube transcodes all video and our players attempt to deliver the best bitrate for the viewer based on their available bandwidth and viewing platform.www.reddit.com/r/youtubegaming/comments/47d97p/is_max_bitrate_9k/d0c8puq
Видосы вообще заливал сжатые без потерь, никаких проблем.А вот это правильно, если канал позволяет, чтобы не сжимать с потерями дважды. Лично я заливаю lossless FFV1.
С виду у ютуба все исходные файлы хранятся. В доказательство этого, специально искал av1 на самых просматриваемых видосах, конечно находил и видосы 2015 года и старше и у них качество в av1 лучше чем в других кодеках, что значит ютуб хранит оригинал видоса, ну или там есть какая-то планка, но в разы выше того, что он в итоге показывает, наверняка это не узнать.
Ну и у ютуба есть минимум 3 варианта сжатия, а скорее всего их 4.
1) Самый быстрый — для стримов у которых в настройках минимальная задержка, соответственно самое плохое качество.
2) Обычный — для стримов у которых в настройках обычная (большая) задержка.
3) Предполагаю что для стримов со средней задержкой есть свой вариант сжатия, это я не тестировал, смотрел только обычную и минимальную задержку.
4) Обработка видоса или обработка стрима после его завершения — самое лучшее качество, самое лучшее распределение битрейта, качество заметно лучше чем у предыдущих вариантов.
Не нашёл сообщение где шла речь про рипы фильмов, поэтому добавлю сюда.
Самое дикое и плохое что я нашёл — это установка параметра frame-threads больше двух при использовании x265, ставят и 4 и 8 и 16 видел даже. Похоже люди совсем не понимают что это такое. Даже значение 2 ухудшает качество, 4 уже в пределах 10-20% в худшую сторону, если судить по росту битрейта при кодировании с crf.
А параметр этот ни что иное как параллельное кодирование кадров, то есть условно кадр делится на столько частей, сколько задано в параметре и при окончании кодирования первой части начинается кодирование второго кадра параллельно и так далее. В итоге векторы движения и предсказания ограничиваются по длине и качество падает.
Если говорить про 1080р, то тут максимум нужно ставить 2 кадра, если хочется загрузить проц на 100% и он имеет до 16 потоков, если потоков больше то уже ставить больше кадров, но смотреть по загрузке процессора и ставить минимально возможное число. Для 4к тоже самое, только уже проц не до 16 потоков, а до 32.
Не дожимает он на лету, ну по крайней мере я такого особо не замечал.Я сотрудника YouTube цитировал, если что.
Самое дикое и плохое что я нашёл — это установка параметра frame-threads больше двухТам есть еще параметры психовизуальной адаптации, которые тоже любят покрутить. Тоже опасная вещь.
параметры психовизуальной адаптацииНу это всё на вкус и цвет.
Мне вот нравится ssim, везде ставлю -tune ssim, в любом кодере, где это возможно. В том же libaom это внезапно даёт заметно лучше качество. В x265/x264 не так сильно влияет, но всё равно влияет.
В x265 так же могу отключить SAO, если битрейт достаточный и никаких артефактов и так нету.
Если тут речь про латенси в онлайн играх, то да, тут стрим заметно влияет, но я онлайн игры не смотрю, смотрю синглы, а там инет в процессе игры не нужен.
Ну а аплинк стример должен выбирать нормальный, например я ещё года 3 назад мог спокойно стримить на ютуб 40 мбит поток (тариф 75 мбит), а вот стример, которого я смотрю, не может в Москве с гигабитным инетом отдавать на ютуб такой поток, у него там что-то всего 25 мбит что-ли сейчас, тогда как я сейчас могу отдавать что-то около 80-100 мбит минимум (тариф 250 мбит).
А ну да, я же совсем забыл, что сейчас стримят даже те, кто просто с компьютером работать нормально не могут и что такое битрейт, они вообще не слышали, а аплинк тем более.
Вот только к ютубу это всё равно не имеет отношение никакого, Ютуб принимает то, что дают и всё.
Это вот на телефоне ютуб и другие приложения которые могут стримить, сами регулируют битрейт, а на ПК такого нету, какой битрейт поставил такой и есть.
Но в любом случае выход тут только один — подключить нормальный интернет, который тянет хотя бы 40 мбит аплинк, но лучше больше и установить битрейт стрима в зависимости от этого интернета, чтобы аплинк никогда не грузился на 100%.
ютуб стриминг довешивает к уже существующей инфрастуктуре в которой качество VOD видео важнее качества live трансляции. твитч когда зашёл с другой стороны после тестов решил не давать возможность стримить в высоком разрешении и битрейте пока не получится при этом не жертвовать интерактивностью в угоду картинке. и да в самой стримящей стране в мире аплинк в 40 мегабит это в большинстве случаев недостижимая роскошь. и даже за 20 мегабит можно платить за сотню доларов. великий асинхронный интернет субурбии в действии.
У него для этого аж 3 варианта задержки есть и разрешения больше 1080р доступны только на самой большой задержке в 30-40 секунд.
Чем там жертвует твич мне не совсем понятно, ведь на твиче идёт исходный поток без перекодирования, именно тот, который ты ему отдаёшь, поэтому там битрейт ограничен. Ну да кроме исходного потока твич ещё показывает и пошакаленные варианты, может быть в них проблема, но я не знаю кто вообще смотрит на твиче то, что он там пошакалил, вместо оригинального потока стримера, ведь там такие кубики, что лучше это не видеть.
А ещё, уже раза три слышал, что твич хочет запустить 1440р120 в av1 кодеке, не понятно только на каких мощностях он это хочет, если у него 1440р сейчас вообще никакого нету, а av1 требует в разы больше ресурсов чем h264.
Я сам тестил что выходит в разрешении 1440р120 с 8 мбит битрейтом, а выходит лишь то, что по сравнению с h264 картинка не рассыпается на кубики и местами больше деталей, но есть места где деталей меньше, но это редко. По сравнению с самой игрой — это по прежнему очень убого (лично для меня, +- нормальное качество игровой картинки начинается от 30 мбит битрейта и это для 1080р, с av1 ну до 20 мбит можно понизить).
Я тестил с неплохим пресетом качества и по рассчётам для того чтобы тянуть этот пресет в 120 фпс нужно больше 400 ядер нового райзена, вот только это если не учитывать масштабируемость кодера, а просто посчитать.
А в реальности libaom масштабируется хреново и тем более на такое количество ядер, поэтому сейчас не возможно сделать 120 фпс в av1.
— Отсюда я и спросил: на каких мощностях у них получается делать 120 фпс?
Может там просто av1 на столько порезали, для того чтобы сделать 120 фпс, что он у них и близко на нормальный av1 не похож.
— И к слову, даже сам ютуб не реализовал всё, что есть в vp9 и его vp9 почти всегда хуже по качеству, чем то что я могу сделать в h264. А вот av1 у ютуба сейчас неплохой и поэтому он сразу заметно лучше чем его vp9, но это сейчас, мне кажется скоро ютуб сделает себе asic-ки для av1, так же как у него сейчас asic-ки для vp9 и качества не будет.
Так что сам кодек по факту не гарантирует качество, любой кодек можно убить плохим кодером, так что выйдет новый кодек хуже чем старый с нормальным кодером.
Речь была о телефонах. И кроме качества есть ещё пропускная способность. Если канал не тянет, особой пользы от качества не будет, нормально посмотреть не получится. Именно поэтому и стараются снизить битрейт при том же качестве.
Кстати, высокий битрейт — это не плюс, это минус. Задача кодеков — снизить его при том же качестве (иначе все передавали бы равки)
Высокий битрейт бывает не только при высоком качестве, а ещё и при несильном сжатии. У всяких DVD исторически высокий битрейт (относительно), но говорить, что DVD по качеству лучше, чем h.264 никто не будет, даже если битрейт сделать выше для DVD (это не сложно).
Кстати, высокий битрейт — это не плюс, это минус. Задача кодеков — снизить его при том же качестве (иначе все передавали бы равки)Однозначно. Но реальный, ограниченный требуемым качеством битрейт — вот, что лучше всего. На том же ютубе битрейт явно ограничен сверху определенным значением для каждого разрешения, что для статичного плана со шкафом, где 300 кбит\с за глаза будет, что для полетов коптера над городами, где и 10000 может не хватить (но их мы вам не дадим, у нас для 1080P предел 4000, так что смотрите квадраты). Понятно, что обьемы у ютуба гораздо больше, чем у netflix, поэтому они просто не заморачиваются с качеством.
Речь была о телефонах.На своем телефоне я прекрасно вижу разницу между ютубовскими 1080P и 4К. Экран 1080P с копеечкой, ибо не 16:9.
Любое 4к онлайн хуже чем blu-ray 1080p, так же 1080р на ютубе бывает хуже чем DVD.
С ПК же всё по сложнее, но например 1080р рип с битрейтом 15 мбит по качеству лучше чем 4к на ютубе. Поэтому я и смотрю на ютубе 1440р и 4к.
Фильмы смотрю 1080р или 4к если 4к есть. 1080р и 4к у рипов намного лучше по качеству чем тоже самое онлайн на каком-то сайте.
А 3G обычный, сейчас его мало кто использует и поэтому бывает что он быстрее чем 4G.
У меня сейчас 3G всегда больше 3 мбит, чего спокойно хватает для 1080р на ютубе.
Для других площадок хватает 5-6 мбит.
А 4G у меня такой, что я качаю рипы с торрента и при этом смотрю их онлайн сразу. Скорость 20-40 мбит обычно.
на телефоне вы не увидите никакой разницы
Я понимаю, а вы? Это вы написали, что смотрите 4к на телефоне, если оно доступно. Ваше право, но ко мне какие вопросы?
Может кто-то ответить зачем ещё уменьшать битрейт? Почему бы наконец не повысить качество, которое сейчас просто никакое при просмотре онлайн?Потому что качество не = битрейт. Если в кадре много статики, то битрейт может быть и 3000, а качество — прекрасным. Поэтому лично я стараюсь продвигать CRF везде, где могу.
Отвечая на второй вопрос — платформы считают, что сейчас качество для потребителя достаточное. Поэтому «более лучшие» алгоритмы потянут битрейт вниз за собой, оставляя качество примерно на том же уровне. Вы ведь не жалуетесь на качество? Нет. А серверы не резиновые. Напишите петицию, мол, «хочу на ютубе качество лучше, поднимите битрейт на 20%», может что и изменится.
И площадки такие как ютуб и нетфликс и другие крупные это тоже знают и используют в какой-то мере. Всё таки чистый crf они использовать не могут, наверное сами знаете почему.
Битрейт я взял средний, конечно на разных видосах он разный.
Но можно взглянуть с другой стороны: если это позволяет не снижать битрейт для будущих фильмов\сериалов, потому что «место заканчивается», то это победа качества. Просто с другой стороны подход.
Ну если они подбирают почти все параметры под каждый кадр, то может быть, но всё равно слишком радужно.
В видео то все кадры +- одинаковые, типо если это фильм, то это фильм, если мультфильм, то мультфильм, не особо понимаю что они там ещё оптимизируют.
Бесконечно уменьшать размеры в 2 раза не возможно и это видно.
У каждого кодека свои артефакты, своя картинка. А вот чтобы сохранялось именно больше деталей — это сложно найти.
Сравнивал av1 с h264. Конечно же в h264 кодировал с помощью x264 placebo, всё равно это в разы быстрее чем кодировать в av1.
Заявляют что av1 будет с таким же качеством как h264, но при в 2 раза меньшем размере. Но что-то вообще нет, мультфильмы в av1 нормально, а остальное уже кому как. Мне вот лучше h264 с в 2 раза большим размером или же h265/av1 но с размером на 15-20% меньше, но никак не в 2 раза.
Про игры вообще можно не говорить, пока что x264 лучший кодер для игр.
не особо понимаю что они там ещё оптимизируют.Они каждую сцену отдельно считают, а потом сшивают. Содержание при этом значения не имеет, мультфильм это или фильм.
но никак не в 2 раза.Вы против того, чтобы фильм при том же качестве весил в 2 раза меньше? Почему?
Вы против того, чтобы фильм при том же качестве весил в 2 раза меньше?Я не против, но такого нет, написал же, даже при сравнении h264 и av1, всё равно нету разницы в 2 раза в пользу av1.
In 2018 Facebook testing that approximates real world conditions, AV1 achieved 34%, 46.2% and 50.3% higher data compression than libvpx-vp9, x264 high profile, and x264 main profile respectively.en.wikipedia.org/wiki/AV1
Кроме того, когда на трекеры фильмы выкладывают, нередко сжимают
У нас товарищи на compression.ru регулярно проводят сравнения кодеков, и AV1 там занимает заслуженное первое место с отрывом от x264 на те самые 50%. (см пункт 10. Conclusion)
Обещали, но я не вижу такого. Может только по метрикам есть.
А то что там Facebook сравнивал, вообще не показатель, я уверен что как все использовал какие-то слабые пресеты для h264 и максимальный для av1 (при котором скорость такая, что нужно процессор 32-64 ядерный минимум).
x264 с пресетом placebo заметно быстрее кодирует чем в av1 любым кодером с нормальным качеством. Не вижу смысла сравнивать какой то средний h264 с максимально возможным av1.
То-то ютуб всё никак не начнёт массово кодировать в av1, а кодирует только видосы с большим кол-вом просмотров и те по 2 недели — месяцу и только до 1080р.
Мне вот это тоже не понятно, какой смысл кодировать 144р — 480р в av1, но ютуб именно это и делает сейчас, многие видосы доступны в av1 только до разрешения 480р.
А асик будет 100% хуже и заметно хуже чем максимальный пресет в libaom (с котором сейчас всё сравнивают в плане качества), так вот прирост качества становится вообще не существенный.
Чем сложнее кодек, тем сложнее сделать асик, который будет показывать +- нормальное качество.
Например инвидия только в тьюрингах наконец реализовала B-кадры в h265, которые по сути сильно экономят битрейт.
Но в целом вы правы, мне глубоко фиолетово сколько мощностей потратит гугл на кодирование видоса. Меня напрягает только то, что они не используют x264, который даёт лучше качество чем их VP9, но при этом внедряют av1 и с ухудшением качества из-за слишком низкого битрейта. Это сравнимо с прошедшим внедрением h265 в телефоны для кодирования видео, h265 типо есть, а его качество хуже чем x264 со стандартным пресетом.
Получается лично мне видны только минусы от этого, так-как проблем со скоростью интернета не имею, да и если учесть их битрейт 1080р, то практически никто не имеет проблем.
h264ify даёт наслаждаться старым добрым avcСам его использовал на планшете с intel atom, там иначе вообще не работало, ядра слишком слабые.
Сейчас не использую, i5-2520m хватает для декодирования 1440р 60 кадров или 4к 30 кадров. Ноут использую только от сети, поэтому сейчас проблем с расходом батареи нету.
Или альтернативный вариант сделать нормальное распределение битрейта, тогда качество будет +- одинаковое всегда и битрейт который сейчас тратится на статичные кадры пойдёт на динамику.
Сами посмотрите, рипы если есть в h265, то у них меньше размер чем у рипов в h264.
Тот же ютуб, в vp9 у него меньше битрейт чем в h264, а в av1 битрейт в 2 раза меньше чем в vp9, что в итоге даёт качество хуже чем в vp9, да и бывает что vp9 хуже чем h264.
С h266 будет ровно так же, просто все уменьшат битрейт и хорошо если качество будет не хуже, чем было с h265.
Так что я ответил «зачем не нужно уменьшать битрейт», его уже некуда уменьшать.
А то что «при одинаковом размере h265 лучше» — это просто факт, если бы было иначе, то он был бы не нужен вообще.
А вопрос немного перефразирую: «зачем все уменьшают битрейт, когда он и так уже ниже некуда?».
Я вот из-за такого низкого битрейта смотрю ютуб в 1440р и 4к и на телефоне и на ноуте с 768р экраном. На телефоне это больший расход батареи чем если смотреть 1080р. Так почему же не делают нормальное 1080р, а делают вместо этого калечное 1440р и 4к?
У 1080р на ютубе уже битрейт 2 мбит, да его сейчас 3G потянет даже с запасом. На других площадках битрейт 4-6 мбит, что тоже мало, так как площадки не используют дикие пресеты x264 для кодирования, а наоборот кодируют с таким низко-средним качеством. Поэтому и выходит что 4к с ютуба по факту хуже чем 1080р blu-ray.
Но главная мысль: то, что у новых кодеков меньше битрейт — это доказательство их повышенной эффективности, а не ухудшенного качества.
Конечно параметры меняются и целевое качество тоже меняется, а из каких соображений это всё подбирается мне не ясно.
Чистого crf нету на площадках, есть так называемый constrained crf. Для чистого crf пришлось бы подбирать этот crf для разного рода контента иначе битрейт бы выходил совсем разный. Например 3 мбит для видео и 15 мбит для стрима игры, поэтому битрейт используется +- одинаковый всегда.
Чистый crf я видел только для гифок, когда гифку заменяют видосом, но там обычно crf 24-26 что тоже маловато.
Не может это так просто взять и угаснуть, к счастью. Но, к сожалению, очевидно, что
А альянс лишь даёт возможность желающим заключить фьючерс на предоставление доступа к определённым технологиям и в некоторой степени влиять на результат.
На ПК это видеокарты 900 серии инвидии и новее, процы интел 6000 серии и новее.
В принципе отставание там не сильное, h265 принят в 2013, а аппаратные реализации появились в 2015. А ведь он не используется в вебе.
Вот av1 принят в 2018, а аппаратные реализации уже есть в телефонах и телевизорах. Но вот насчёт доступности таких телефонов не уверен, но телеки есть.
В телефонах должен быть процессор mtk dimensity 1000 или 1000L, он поддерживает av1 до 4к 60 кадров.
Так что не всё так плохо как кажется.
Да и эта самая первая поддержка h264 сейчас уже не нужна в принципе, она же только 1080р, а 1080р сейчас и так почти на любом процессоре будет работать.
Сейчас надо 4к, а 4к появилось сразу вместе с поддержкой h265.
Вот у меня проц аппаратно вывозит 5 потоков 1080р blu-ray одновременно без тормозов, а толку то? Всё равно он не может аппаратно ни в 1440р ни в 4к, хотя в теории то должен, раз может в 5 потоков 1080р. Поэтому у меня 4к только на ядрах проца работает.
При чем тут открытые стандарты? h266 будет лицензироваться по "transparent licensing model".
А значит, поддержки этого чуда ни в браузерах ни в устройствах ждать еще очень долго нет смысла. Хотя, казалось бы, такая пачка компаний эту разработку поддерживает, да и сам институт Фраунгофера вообще-то спонсируется государством. Могли бы и выпустить этот кодек под свободной лицензией.
Intel откладывала покупку оборудования для нового полупроводникового завода. Вероятно, отсюда дефицит производственных мощностей.
Контент, кодированный старыми кодеками, естественно, никуда не денется, соответственно, и кодеки будут востребованы. Но, увы, неактуальны.
"H.264 не актуален, как минимум, на Youtube — не так много пользователей запрашивают его"
А есть статистика? Не удивлюсь что большинство просмотров идёт с телефонов (и не все топовые) и телевизоров, что приводит к тому что запрашивается то что реализованно аппаратно.
А чем в данном контексте компьютер отличается от телефона?
А чем в данном контексте компьютер отличается от телефона?
А где схема VVC? В посте только HVEC картинка.
Повышение эффективности сжатия достигается за счёт значительного усложнения алгоритмов...
Опять вагон эксплойтов снаряжают.
Сотрудник Mail.ru Максим Андреев опубликовал информацию об уязвимости в популярном наборе свободных библиотек FFMpeg.
Если сформировать специальный видеофайл (расширение не имеет значения) и загрузить его на видеохостинг, то злоумышленник сможет прочесть любой файл на сервере. Если удастся каким-то образом заставить обычного пользователя скачать вредоносный файл (дать ему прямую ссылку, выложить на торрент-трекер), как минимум, можно узнать имя пользователя и какую-нибудь ещё непубличную информацию. В случае с Ubuntu FFmpeg передаст злоумышленнику первую строку указанного злоумышленником файла (например, /etc/passwd того пользователя, который просто скачал файл, даже не запуская его (FFMpeg в Ubuntu используется для создания превью, отображаемого в файловом менеджере).
Кроме того, уязвимости подвержены все видеопроигрыватели, использующие FFMpeg.
В качестве мер защиты предлагается запускать ffmpeg в изолированном окружении, либо ограничить ему доступ к сети.
Они пришли к выводу, что видеосообщение (тот самый ролик можно увидеть ниже, похоже, это рекламный фильм о телекоммуникациях на арабском языке), полученное главой Amazon от наследного принца, эксплуатировало уязвимость в мессенджере WhatsApp, используя баг для загрузки и установки малвари на личный iPhone Безоса. Это вредоносное ПО похитило с устройства главы Amazon огромное количество данных.
xakep.ru/2020/01/23/bezos-hacked
Сейчас поддержка этого кодека на аппаратном уровне реализована всеми производителями процессоров.
А вот условная интеграшка 22-наномерового Celeron 1005M не тянула HEVC FullHD. Пришлось найти плеер (кажется MPC-HC), который не то легче декодировал, не то дискретку использовал.
29 февраля 2012 года на выставке Mobile World Congress компания Qualcomm показала HEVC-декодер, работающий на планшете под управлением ОС Android с двухъядерным процессором Qualcomm Snapdragon S4 с частотой 1,5 ГГц.
Во втором квартале 2012 из того поколения (22 нм) вышли мобильные i7, i5 и i3.
Скажем у i5-3427U это интеграшка с частотой 350@1150 МГц (раз проц без Турбо 17 Вт), а у моего 1005M — 650@1000 МГц (формальные 35 Вт). Где 35 Вт имеет в том поколении i5-3380M с базой 2.9 ГГц и HT.
рабочими группами MPEG (ISO/IEC JTC 1) и VCEG (ITU-T)
А как к этому присасываются патентные тролли из MPEG-LA?
Представлен видеокодек нового поколения H.266/VVC