Как стать автором
Обновить
130
143.1

Пользователь

Отправить сообщение

Спасибо! По всей видимости, я действительно зря не решился начать изучать ZLUDA.

Всё отлично в моём случае. Но опять же из-за того что невозможно натурально сравнить работу напрямую и через ROCm, то нельзя точно говорить о каких-либо цифрах, неизвестен процент потерь. Я догадываюсь что производительность около 80-95%, в той же stable diffusion моя RX 6600 выдает результаты скорости, относительно сопоставимые с RTX 3060.

даже на 6500 xt рабоатет если говорить за работу на линукс. А вот на windows, по всей видимости, решили не тратиться на работу с младшими архитектурами, и реализовали поддержку только самых новых решений и c барского плеча дали поддержку на 6800 и выше.

Как думаете, почему AMD реализовала портирование ROCm на Windows посредствам wsl а не прямого портирования?

для правильного сравнения именно качества кодеков, вам необходимо было сравнивать их с данными параметрами:
h264: -vcodec libx264 -preset veryslow -b:v 2000k (можете указать своё значение)
h265: -vcodec libx265 -preset veryslow -b:v 2000k
Только в таких равных условиях, мы можем говорить о качественной разнице самих кодеков. У кого будет меньше артефактов и искажений - тот и будет качественнее.

Вы название статьи читали?

А также данный абзац?

H264 — воспроизводится без проблем практически везде, но имеет оскорбительно плохую эффективность в сжатии видео в сравнении с другими актуальными кодеками. AV1 — открытый кодек, который сжимает видео более эффективно, чем HEVC, но требует значительно больше ресурсов как для кодирования, так и для декодирования, что, несмотря на его свободу от лицензий, делает его непригодным для использования за пределами таких онлайн-кинотеатров, как Netflix или Amazon Prime, которыми как раз и поддерживается его развитие.

Исходя из названия статьи, ну чисто логически же можно было понять что основной упор идет на hevc и я не буду рассказывать о чем-либо кроме него. Так и вот в цитате и самой статье я ни один раз упоминал что hevc это не центр вселенной и мироздания. Что для ваших "домашних кейсов" есть разные кодеки тоже упомянуто в цитате.

Серьёзно, ваши сообщения уже больше подходят на спам. Вы уже ни один раз игнорировали доводы из статьи, хотя вроде её и читали...

Даже не углубляясь в вопрос, я не рассматриваю в статье какой-либо live streaming с ffmpeg.

Извините, но я не понимаю что вы от меня хотите. Я не вижу в целом смысла в поднятии данного вопроса в данном случае.

Имелось ввиду что h265 самый продвинутый среди представленных ранее в статье вариантов. И не в плане качества кодирования, а количества параметров кодирования и их влияния на картинку, то есть он более гибкий чем остальные варианты.

Эта часть не требует уточнения в данной статье. Даже если усложнять этот абзац, то придем к одним и тем же выводам, так что я сразу сжал данную информацию в таком выводе.

Можно считать их мертвыми на данный момент. Они устарели. Конечно никто никуда не пропадал, но ими вне специфичных задач, нету смысла пользоваться. Есть ещё всякие prores от apple, но у меня не про это статья.

А что касается запуска видео, то ну просто установите VLC и бед знать не будете.

ну да, честно говоря, формат вышел не лучший, хотя я писал на пк, и выглядело нормально.

Такое не чинится никак. Тут и обычная студия мультипликации в обморок упасть может, а вы о каких-то плагинах и апскейлерах говорите)

Эм, это blu-ray исходник в 1080p, и я не совсем понимаю зачем вы так зацикливаетесь на определенном материале, какое это вообще имеет отношение к вашему первоначальному циттированию? И VHS шумы как правило безумно разнятся по своей убитости от одной кассеты к другой, так что не думаю что вообще целесообразно пытаться иметь с этим дело.

Так вы говорите о каком-то филтьре из 2000-х, а я о довольно современном алгоритме Neat Video v5 из 2019 года.

После прогонки через wavelet color fix, так и вообще загляденье

Нет, мощность как правило не влияет на качество преобразование видео. В вопросе нейросетей, наибольшую роль как раз влияет количество VRAM на качество(но меньше чем скорость) и скорость её работы. Также если объём входных данных достаточно велик, то действительно объём VRAM может повлиять на качество кадров. Ведь если на данный момент видеопамяти не хватает, то её увеличение, может положительно сказаться на картинке, так как у модели будет больше информации из соседних кадров.

Честно говоря, у вас довольно таки странное представление о сегодняшних ИИ апскейлерах, в частности о тех архитектурах что я привел в статье. Про трансфер картинки с носителя на носитель... Ну я не вижу целесообразным вообще поднимать эту тему далее, мы ведь это уже давно закрыли. И вообще при чём это здесь?

И темпоральные шумодавы вообще-то есть, понятия не имею откуда вы взяли это. Тот же мой апскейлер для шумодава(снова утверждаюсь в том что вы не читали статью), обучен на архитектуре esrgan compact и что угодно обученное на нём является темпоральным апскейлером. То есть данные берутся также и о соседних кадрах, для стабильного результата на картинке. Так и есть традиционные шумодавы, как тот же Neat Video который я использовал для создания моего апскейлера. Он выдает более точный и стабильный результат, однако требует каждый раз ручной настройки.

Знаете, словно мы говорим не об этой статье, а посвящённой какому-нибудь FSR. Апскейлеры на нейросетях не занимаются только подавлением шума и сглаживанием изображения. Есть же куча специализированных апскейлеров, для устранения например ореолов, линий сканирования и прочего. Также я в статье давал ссылку на самый лучший пример того насколько умными апскейлеры могут быть. Sudo Inpaint PartialConv2D. Буквально технология inpaint без промта, на той же архитектуре что и обычные апскейлеры видео ESRGAN.

В этом плане я уже могу вас понять, хотя я сам не имею такого большого опыта в сравнении подобного. Однако по сути вы тоже не имеете, я же в самом начале статьи освятил что апскейл анимации с топазом - ужасен.

Может апскейлеры на ESRGAN дотянут до вашей планки качества? Кто знает. Но если вам и это не угодит, то ну могу только сказать что вы человек с весьма исключительным видением на данный счёт. Как раз апскейлер Anime Video V3 от самого создателя архитектуры ESRGAN-compact и ставит перед собой цель, передать на выходе картинку такой же естественной, какой она была и в оригинале. Ведь апскейлер можно на разном материале обучать. Многие датасеты, как вы ранее отметили, содержат в себе много цифровой анимации, а по итогу их используют на "целевой анимации". Но даже в данном случае всё не так однозначно, ведь если апскейлер не был переобучен, то он и тут с заметной регулярностью не искажает стилистику оригинала.

Но мы с вами скорее немного расходимся в интересах. Мой основной нарратив идёт даже в статье, а не только в моей деятельности, на "целевую анимацию". Цифровую анимацию скучно реставрировать.

Информация

В рейтинге
27-й
Работает в
Зарегистрирован
Активность