Да даже на телефоне с 30 см это видно сразу.
Самое смешное, что у ютуба явный приоритет битрейта на 1440р и 4к.
То есть по размерам разница 1080р и 4к в 4 раза, а по битрейту бывает что 4к в 7-8 раз больше чем 1080р, в среднем же в 6 раз больше чем 1080р.
Ну и с 1440р тоже +- так же.
У меня просто расширение savefromnet и я сразу в 1 клик виду все размеры во всех доступных кодеках и разрешениях.
Смешно, но я так один раз скачал с ютуба 4к белый шум с битрейтом в 600 или 900 мбит вроде. 10 секундный видос был. А вот в 1080р его битрейт был 20 мбит вроде и конечно от шума там остались одни артефакты.
Но спустя пол года этот видос пропал с ютуба, не знаю уж его ютуб удалил из-за такого глюка или сам автор, но у меня этот видос есть до сих пор и могу скинуть если интересно.
Ну я вот переодически смотрю что там у rav1e кодера.
Ну сейчас он в зависимости от контента может показать чуть лучшее качество чем x265 placebo и libvpx-vp9 с максимальным пресетом. При этом по скорости от +- одинаково, до того что rav1e в 2 раза медленее.
Но так же иногда vp9 и h265 показывают лучше качество, так что пока спорно.
libaom же реально может в лучшее качество, но как вы и сказали скорость кодирования там просто смешная.
Есть ещё svt-av1 но у меня нету железа с avx2 чтобы нормально его протестировать, а на моём железе при равной скорости с rav1e, по качеству он хуже.
Но другое дело что h265 не работает в вебе, а av1 работает прямо сейчас.
Ну вы просто не понимаете что на телефоне вы не увидите никакой разницы между 1080р и 1440р и 4к при одинаковом весе файла. Поэтому для телефона лучше 1080р, из-за меньшего расхода батареи. Вы похоже просто не понимаете, что сейчас с такими низкими битрейтами не разрешение определяет качество, а битрейт.
Любое 4к онлайн хуже чем blu-ray 1080p, так же 1080р на ютубе бывает хуже чем DVD.
С ПК же всё по сложнее, но например 1080р рип с битрейтом 15 мбит по качеству лучше чем 4к на ютубе. Поэтому я и смотрю на ютубе 1440р и 4к.
Фильмы смотрю 1080р или 4к если 4к есть. 1080р и 4к у рипов намного лучше по качеству чем тоже самое онлайн на каком-то сайте.
А 3G обычный, сейчас его мало кто использует и поэтому бывает что он быстрее чем 4G.
У меня сейчас 3G всегда больше 3 мбит, чего спокойно хватает для 1080р на ютубе.
Для других площадок хватает 5-6 мбит.
А 4G у меня такой, что я качаю рипы с торрента и при этом смотрю их онлайн сразу. Скорость 20-40 мбит обычно.
Ну ютуб и не использует CBR это больше похоже на туповатый VBR или constrained crf.
Но ваще прикол ютуба в том, что они используют свои asic кодеры, от этого тоже качество не такое как может быть у x264.
Их vp9 по качеству хуже чем x264 medium.
Вот только для av1 у них пока нету asic кодера.
Главное тут то, что эта повышенная эффективность используется только в минус.
Конечно параметры меняются и целевое качество тоже меняется, а из каких соображений это всё подбирается мне не ясно.
Чистого crf нету на площадках, есть так называемый constrained crf. Для чистого crf пришлось бы подбирать этот crf для разного рода контента иначе битрейт бы выходил совсем разный. Например 3 мбит для видео и 15 мбит для стрима игры, поэтому битрейт используется +- одинаковый всегда.
Чистый crf я видел только для гифок, когда гифку заменяют видосом, но там обычно crf 24-26 что тоже маловато.
Я сам знаю что crf лучшее что есть, лучше только 2 прохода но тоже не всегда.
И площадки такие как ютуб и нетфликс и другие крупные это тоже знают и используют в какой-то мере. Всё таки чистый crf они использовать не могут, наверное сами знаете почему.
Битрейт я взял средний, конечно на разных видосах он разный.
Да нету проблемы с интернетом, я смотрю только 1440р и 4к если оно доступно и на телефоне и на ноутбуке с 768р экраном, о каком 1080р вы мне говорите то? 1080р онлайн сейчас очень плохое, бывает что оно на уровне DVD, я его смотрю только если другого нету.
1080р сейчас тянется даже по 3G и иногда даже с запасом.
Я ниже расписал подробнее, не буду повторяться.
Ну а кто не понижает битрейт при использовании нового кодека?
Сами посмотрите, рипы если есть в h265, то у них меньше размер чем у рипов в h264.
Тот же ютуб, в vp9 у него меньше битрейт чем в h264, а в av1 битрейт в 2 раза меньше чем в vp9, что в итоге даёт качество хуже чем в vp9, да и бывает что vp9 хуже чем h264.
С h266 будет ровно так же, просто все уменьшат битрейт и хорошо если качество будет не хуже, чем было с h265.
Так что я ответил «зачем не нужно уменьшать битрейт», его уже некуда уменьшать.
А то что «при одинаковом размере h265 лучше» — это просто факт, если бы было иначе, то он был бы не нужен вообще.
А вопрос немного перефразирую: «зачем все уменьшают битрейт, когда он и так уже ниже некуда?».
Я вот из-за такого низкого битрейта смотрю ютуб в 1440р и 4к и на телефоне и на ноуте с 768р экраном. На телефоне это больший расход батареи чем если смотреть 1080р. Так почему же не делают нормальное 1080р, а делают вместо этого калечное 1440р и 4к?
У 1080р на ютубе уже битрейт 2 мбит, да его сейчас 3G потянет даже с запасом. На других площадках битрейт 4-6 мбит, что тоже мало, так как площадки не используют дикие пресеты x264 для кодирования, а наоборот кодируют с таким низко-средним качеством. Поэтому и выходит что 4к с ютуба по факту хуже чем 1080р blu-ray.
Может кто-то ответить зачем ещё уменьшать битрейт? Почему бы наконец не повысить качество, которое сейчас просто никакое при просмотре онлайн?
10 гб для 4к 90 минутного уже мало, а 5 гб совсем мало, ну не дают все эти кодеки такой прирост как заявляют, прирост этот только в метриках, а не визуально.
1) Если же говорить про телефоны, то не думаю что кто-то отличает на телефоне Blu-ray от UHD Blu-ray, даже если смотреть на экран с 10-15 см. Значит 4к не нужен в телефонах и лучше иметь нормальный FHD, так и зарядки меньше тратится.
2) И наоборот, если говорить про 4к на ПК, на 30 дюймовом мониторе будет хорошо видно, что 5 гб в новом кодеке хуже чем 10 гб в старом, да и 10 гб в этом случае маловато, вот 20 гб уже нормально, но бывает и лучше.
Сколько раз сравнивал h264 и h265 используя кодеры x264, x265, с разными пресетами. Если делать размеры ориентируясь на заявленный прирост, то h265 хоть и выглядит хорошо, но видно что как-то синтетично и мне такое не нравится. А если сравнивать кодеки при одинаковом размере файла, то конечно h265 лучше.
Плюс скорости кодирования, x265 и так может кодировать очень медленно и выдавать качество почти как у av1, а если новый ещё в 10 раз медленнее, то использовать его мало кто будет.
3) h265 нету в вебе поэтому что он платный, он поддерживается вроде только двумя браузерами EDGE и safari, так с чего же в mpeg решили (или так решил автор статьи?), что такой же платный h266 будет поддерживаться браузерами?
А вот av1 поддерживается браузерами, можно сказать всеми, кроме safari и уже используется ютубом и нетфликсом.
Поэтому не думаю что h266 будет в вебе.
Мне кажется что интел всё таки поставил 4 ядра для якобы много потока и одно ядро для хорошей отзывчивости.
Вряд-ли они будут теперь что-то менять, когда процессоры уже готовы.
Как вариант в будущих 7нм может добавят ещё одно ядро core ну или дальше будут придерживаться той же стратегии и добавят ещё пару атомных.
Я честно не знаю зачем все помешались на этих медленных маленьких ядрах.
У меня вот redmi note 8 pro, 2 мощных ядра, ну и конечно же всегда всё работает на них, а остальные 6 подключаются только если многопоток.
И производительность при загрузке всех ядер +- такая же как при загрузке двух мощных. То есть смысла нету в этих слабых ядрах и 1-2 таких ядер хватило бы для фоновых задач, когда экран выключен.
Ну так какая разница нам потребителям сколько там это по площади стоит для интела?
Главное сколько будет стоить проц и устройства с ним.
И что-то пока-что дешёвых устройств с этими новыми процами не ожидается, а по производительности они +- как core M и сильно хуже U процов.
Единственный их плюс что они в фоне не жрут и могут лежать всегда включенные как телефоны.
Если тупо по площади считать, то атомы по размерам 12х12, что по площади больше чем core M процы а core M процы стоят минимум $300.
Так откуда такие цены то $20 за атом и $300+ за core?
В этом гибридном вообще ещё 2 кристалл и ещё память, что будет стоить хз сколько.
В конечном счёте всё зависит от цены, atom процы стоят по $20, поэтому есть дешёвые планшеты с ними, я сам давно брал за 4200р подобный планшет.
А вот core m процы стоят ровно так же как U и H процы для мощных ноутов, поэтому планшеты дорогие, а в ультрабуках и U процы нормально живут.
Я полностью согласен что лучше 2 core ядра и 1-2 атомных, но сколько это будет стоить не понятно, вроде на эти процы цен пока нету, но думаю они будут явно не $20 за штуку, а скорее всего дороже чем обычные core M, а значит я не знаю зачем они вообще нужны тогда. Планшеты за 40-50к не думаю что имеют хоть какой-то спрос.
Раза в 2 и не только новые процессоры, а старые с TDP 5-7 вт и двумя ядрами Skylake тоже.
По сути получается что 4 слабых ядра выходят производительнее чем одно мощное при многопоточной нагрузе, но мощное ядро раза в 2 производительнее при однопоточной нагрузке.
Короче без специального планировщика под эти процы толку от них не будет и они вряд-ли будут лучше старых 5-7 вт процов у которых 2 мощных ядра.
А процы типа: atom z3735, x5, x7 вообще не советую, они очень слабые по сравнению с m3, m5, i3, i5. Но при этом они очень дешёвые, поэтому встречаются в китайских планшетах по 10к руб.
Долго, при нажатом ctrl перемещает по пробелам, а пробелов там куча.
Вот например кусок команды: -v -s 5 -I 100 -i 1 -b 3000 -l 1000
И такого может быть 3-4 строки. А home это только в самое начало, а если в середину?
Всё же GUI удобнее в этом плане, тыкнул в любое место и изменяешь, выделить часть и удалить в 3 клика с зажатым shift.
А ещё решил проверить как он по производительности и что-то выходит медленее чем cmd. Так что похоже он просто не для меня.
Понял, спасибо, не знал об этом.
В cmd запускаю только консольные проги, и часто там по 3-4 строки параметров, и никакой автокомплит не нужен, но часто нужно изменить пару параметров в первой стоке, а передвигать курсор через все строки долго.
Так раз это эмулятор, то значит так же вызывает cmd.exe или не так?
Просто в диспетчере задач отображаются процессы именно cmd, поэтому предположил, что этот терминал просто вызывает cmd.
А раз он просто вызывает, то какие проблемы сделать текст редактируемым, в cmd он отправляется всё равно только после нажатия enter.
Скачал терминал, по тыкал в нём командную строку. Из плюсов терминала только вкладки, в остальном тоже самое что и cmd.exe.
Выделить текст и удалить его в один клик по прежнему нельзя, поставить курсор в любое место тоже нельзя, всё как в cmd.
Это я не разобрался или таких элементарных функций редактирования текста уровня блокнота в этот терминал не завезли?
Пользуюсь GUI, который вызывает cmd, вот это намного удобнее, никакой красоты нет, но зато возможностей редактирования текста больше чем у блокнота.
Самое смешное, что у ютуба явный приоритет битрейта на 1440р и 4к.
То есть по размерам разница 1080р и 4к в 4 раза, а по битрейту бывает что 4к в 7-8 раз больше чем 1080р, в среднем же в 6 раз больше чем 1080р.
Ну и с 1440р тоже +- так же.
У меня просто расширение savefromnet и я сразу в 1 клик виду все размеры во всех доступных кодеках и разрешениях.
Смешно, но я так один раз скачал с ютуба 4к белый шум с битрейтом в 600 или 900 мбит вроде. 10 секундный видос был. А вот в 1080р его битрейт был 20 мбит вроде и конечно от шума там остались одни артефакты.
Но спустя пол года этот видос пропал с ютуба, не знаю уж его ютуб удалил из-за такого глюка или сам автор, но у меня этот видос есть до сих пор и могу скинуть если интересно.
Ну сейчас он в зависимости от контента может показать чуть лучшее качество чем x265 placebo и libvpx-vp9 с максимальным пресетом. При этом по скорости от +- одинаково, до того что rav1e в 2 раза медленее.
Но так же иногда vp9 и h265 показывают лучше качество, так что пока спорно.
libaom же реально может в лучшее качество, но как вы и сказали скорость кодирования там просто смешная.
Есть ещё svt-av1 но у меня нету железа с avx2 чтобы нормально его протестировать, а на моём железе при равной скорости с rav1e, по качеству он хуже.
Но другое дело что h265 не работает в вебе, а av1 работает прямо сейчас.
Любое 4к онлайн хуже чем blu-ray 1080p, так же 1080р на ютубе бывает хуже чем DVD.
С ПК же всё по сложнее, но например 1080р рип с битрейтом 15 мбит по качеству лучше чем 4к на ютубе. Поэтому я и смотрю на ютубе 1440р и 4к.
Фильмы смотрю 1080р или 4к если 4к есть. 1080р и 4к у рипов намного лучше по качеству чем тоже самое онлайн на каком-то сайте.
А 3G обычный, сейчас его мало кто использует и поэтому бывает что он быстрее чем 4G.
У меня сейчас 3G всегда больше 3 мбит, чего спокойно хватает для 1080р на ютубе.
Для других площадок хватает 5-6 мбит.
А 4G у меня такой, что я качаю рипы с торрента и при этом смотрю их онлайн сразу. Скорость 20-40 мбит обычно.
Но ваще прикол ютуба в том, что они используют свои asic кодеры, от этого тоже качество не такое как может быть у x264.
Их vp9 по качеству хуже чем x264 medium.
Вот только для av1 у них пока нету asic кодера.
Конечно параметры меняются и целевое качество тоже меняется, а из каких соображений это всё подбирается мне не ясно.
Чистого crf нету на площадках, есть так называемый constrained crf. Для чистого crf пришлось бы подбирать этот crf для разного рода контента иначе битрейт бы выходил совсем разный. Например 3 мбит для видео и 15 мбит для стрима игры, поэтому битрейт используется +- одинаковый всегда.
Чистый crf я видел только для гифок, когда гифку заменяют видосом, но там обычно crf 24-26 что тоже маловато.
И площадки такие как ютуб и нетфликс и другие крупные это тоже знают и используют в какой-то мере. Всё таки чистый crf они использовать не могут, наверное сами знаете почему.
Битрейт я взял средний, конечно на разных видосах он разный.
1080р сейчас тянется даже по 3G и иногда даже с запасом.
Я ниже расписал подробнее, не буду повторяться.
Сами посмотрите, рипы если есть в h265, то у них меньше размер чем у рипов в h264.
Тот же ютуб, в vp9 у него меньше битрейт чем в h264, а в av1 битрейт в 2 раза меньше чем в vp9, что в итоге даёт качество хуже чем в vp9, да и бывает что vp9 хуже чем h264.
С h266 будет ровно так же, просто все уменьшат битрейт и хорошо если качество будет не хуже, чем было с h265.
Так что я ответил «зачем не нужно уменьшать битрейт», его уже некуда уменьшать.
А то что «при одинаковом размере h265 лучше» — это просто факт, если бы было иначе, то он был бы не нужен вообще.
А вопрос немного перефразирую: «зачем все уменьшают битрейт, когда он и так уже ниже некуда?».
Я вот из-за такого низкого битрейта смотрю ютуб в 1440р и 4к и на телефоне и на ноуте с 768р экраном. На телефоне это больший расход батареи чем если смотреть 1080р. Так почему же не делают нормальное 1080р, а делают вместо этого калечное 1440р и 4к?
У 1080р на ютубе уже битрейт 2 мбит, да его сейчас 3G потянет даже с запасом. На других площадках битрейт 4-6 мбит, что тоже мало, так как площадки не используют дикие пресеты x264 для кодирования, а наоборот кодируют с таким низко-средним качеством. Поэтому и выходит что 4к с ютуба по факту хуже чем 1080р blu-ray.
Может кто-то ответить зачем ещё уменьшать битрейт? Почему бы наконец не повысить качество, которое сейчас просто никакое при просмотре онлайн?
10 гб для 4к 90 минутного уже мало, а 5 гб совсем мало, ну не дают все эти кодеки такой прирост как заявляют, прирост этот только в метриках, а не визуально.
1) Если же говорить про телефоны, то не думаю что кто-то отличает на телефоне Blu-ray от UHD Blu-ray, даже если смотреть на экран с 10-15 см. Значит 4к не нужен в телефонах и лучше иметь нормальный FHD, так и зарядки меньше тратится.
2) И наоборот, если говорить про 4к на ПК, на 30 дюймовом мониторе будет хорошо видно, что 5 гб в новом кодеке хуже чем 10 гб в старом, да и 10 гб в этом случае маловато, вот 20 гб уже нормально, но бывает и лучше.
Сколько раз сравнивал h264 и h265 используя кодеры x264, x265, с разными пресетами. Если делать размеры ориентируясь на заявленный прирост, то h265 хоть и выглядит хорошо, но видно что как-то синтетично и мне такое не нравится. А если сравнивать кодеки при одинаковом размере файла, то конечно h265 лучше.
Плюс скорости кодирования, x265 и так может кодировать очень медленно и выдавать качество почти как у av1, а если новый ещё в 10 раз медленнее, то использовать его мало кто будет.
3) h265 нету в вебе поэтому что он платный, он поддерживается вроде только двумя браузерами EDGE и safari, так с чего же в mpeg решили (или так решил автор статьи?), что такой же платный h266 будет поддерживаться браузерами?
А вот av1 поддерживается браузерами, можно сказать всеми, кроме safari и уже используется ютубом и нетфликсом.
Поэтому не думаю что h266 будет в вебе.
Вряд-ли они будут теперь что-то менять, когда процессоры уже готовы.
Как вариант в будущих 7нм может добавят ещё одно ядро core ну или дальше будут придерживаться той же стратегии и добавят ещё пару атомных.
Я честно не знаю зачем все помешались на этих медленных маленьких ядрах.
У меня вот redmi note 8 pro, 2 мощных ядра, ну и конечно же всегда всё работает на них, а остальные 6 подключаются только если многопоток.
И производительность при загрузке всех ядер +- такая же как при загрузке двух мощных. То есть смысла нету в этих слабых ядрах и 1-2 таких ядер хватило бы для фоновых задач, когда экран выключен.
Главное сколько будет стоить проц и устройства с ним.
И что-то пока-что дешёвых устройств с этими новыми процами не ожидается, а по производительности они +- как core M и сильно хуже U процов.
Единственный их плюс что они в фоне не жрут и могут лежать всегда включенные как телефоны.
Так откуда такие цены то $20 за атом и $300+ за core?
В этом гибридном вообще ещё 2 кристалл и ещё память, что будет стоить хз сколько.
А вот core m процы стоят ровно так же как U и H процы для мощных ноутов, поэтому планшеты дорогие, а в ультрабуках и U процы нормально живут.
Я полностью согласен что лучше 2 core ядра и 1-2 атомных, но сколько это будет стоить не понятно, вроде на эти процы цен пока нету, но думаю они будут явно не $20 за штуку, а скорее всего дороже чем обычные core M, а значит я не знаю зачем они вообще нужны тогда. Планшеты за 40-50к не думаю что имеют хоть какой-то спрос.
Раза в 2 и не только новые процессоры, а старые с TDP 5-7 вт и двумя ядрами Skylake тоже.
По сути получается что 4 слабых ядра выходят производительнее чем одно мощное при многопоточной нагрузе, но мощное ядро раза в 2 производительнее при однопоточной нагрузке.
Короче без специального планировщика под эти процы толку от них не будет и они вряд-ли будут лучше старых 5-7 вт процов у которых 2 мощных ядра.
А процы типа: atom z3735, x5, x7 вообще не советую, они очень слабые по сравнению с m3, m5, i3, i5. Но при этом они очень дешёвые, поэтому встречаются в китайских планшетах по 10к руб.
Использую ffmpeg и ещё некоторые кодеры.
Вот например кусок команды:
-v -s 5 -I 100 -i 1 -b 3000 -l 1000И такого может быть 3-4 строки. А home это только в самое начало, а если в середину?
Всё же GUI удобнее в этом плане, тыкнул в любое место и изменяешь, выделить часть и удалить в 3 клика с зажатым shift.
А ещё решил проверить как он по производительности и что-то выходит медленее чем cmd. Так что похоже он просто не для меня.
В cmd запускаю только консольные проги, и часто там по 3-4 строки параметров, и никакой автокомплит не нужен, но часто нужно изменить пару параметров в первой стоке, а передвигать курсор через все строки долго.
Просто в диспетчере задач отображаются процессы именно cmd, поэтому предположил, что этот терминал просто вызывает cmd.
А раз он просто вызывает, то какие проблемы сделать текст редактируемым, в cmd он отправляется всё равно только после нажатия enter.
Скачал терминал, по тыкал в нём командную строку. Из плюсов терминала только вкладки, в остальном тоже самое что и cmd.exe.
Выделить текст и удалить его в один клик по прежнему нельзя, поставить курсор в любое место тоже нельзя, всё как в cmd.
Это я не разобрался или таких элементарных функций редактирования текста уровня блокнота в этот терминал не завезли?
Пользуюсь GUI, который вызывает cmd, вот это намного удобнее, никакой красоты нет, но зато возможностей редактирования текста больше чем у блокнота.