Pull to refresh
261
0.4
Send message

Правильно ли я понимаю, что проблема «Данные, на которых можно учить нейросети, закончились» больше не существует?

Гальваника действительно отсутствует

На экспертизу ни в коем случае не претендую, но имхо — зря.

У меня подсветка на полкиловатта управляется через контроллер, подключённый по USB к компу. Так вот, при первых пусках периодически комп тупо вырубался. Поставил развязку на USB — перестало. Так что, скорее всего, там какие‑то уравнивания потенциалов были, и на компе срабатывала защита.

Всего более 2к диодов, яркость может прыгать из максимума в пол 30 раз в секунду
Всего более 2к диодов, яркость может прыгать из максимума в пол 30 раз в секунду

У Вас всё другое (и ленты, и контроллер, и режим работы, и схема питания), но мало ли что. Эти ленты довольно странно иногда себя ведут.

Жгём-шьём контроллеры и кормим ядерную подсветку
Так оно светится А так оно устроено Схема: SVG тут хайрес PNG тут (высокое разрешение). В предыдущей...
habr.com

Есть ещё одна проблема: если оборвать ленте питание, лента пытается жрать энергию из линии управления. Я так себе несколько контроллеров сжёг (правда там не 1 лента а 17 параллельно). Поэтому, по‑хорошему, в линию управления тоже просится развязка.

Понятно, что в Вашем случае мы имеем дело с серийным изделием, и это существенно увеличит себестоимость + условия и характер эксплуатации совсем другие.

Но можно попробовать предложить это клиентам как опцию‑отдельное устройство, размещаемое рядом. Если спрос будет — сделать или перепродать готовые, если они есть. Расширение ассортимента, так сказать.

насколько я понимаю от диода до диода есть ограничение длины линии. ТЕ каждый диод получая посылку пропуская ее через себя подравнивает фронты и формирует новую более ровную посылку чем получил

В рамках любительства делал подсветку на подобных лентах (WS2812b) на видеостену, столкнулся с подобной проблемой. Решил коаксиальными кабелями толщиной примерно в 1 мм.

У меня был завал фронтов, но из‑за резисторов. Без них сам кабель на длине полтора метра показал себя прекрасно — фронты почти не пострадали. Не знаю, насколько это прокатит на ещё больших расстояниях, но шансы имхо более чем высокие.

Ну, это если очень сильно упрощенно. Тогда по вашей логике пиксель в HDR может быть и чернее ноля.

Понятное дело, что в стандартах HDR, по крайней мере, существующих на 2025 год, такого не предусмотрено. А вот считать ли это за HDR в общем смысле — имхо, спор о терминологии.

Если мы уж выражаем каналы числами, которые могут иметь отрицательные значения, то можно вполне себе позволять значения каналов меньше ноля. Такое встречается, например, в Nuke, AfterEffects и Photoshop. Да и мне приходилось делать. Чаще всего сие обитает там, где обитает композитинг.

Имеет ли это смысл?

Ну, мы пока не умеем взять и положить на стол минус пять яблок, но почему‑то мало кто говорит, что отрицательные числа не нужны. Так и тут. Отрицательный свет бывает нужен в специфических случаях при композитинге. Например, при аддитивном наложении значения каналов будут уменьшаться, а не увеличиваться.

HLG предназначена для того, чтобы показывать изображения HDR на экранах SDR, да и то не на всех. И вообще эта технология является очень частным случаем HDR для видео, в основном телевещания.

Не совсем так. HLG даёт, в некотором смысле, обратную совместимость с SDR, то есть она нужна, чтобы HDR контент смотрелся +- не вырвиглазно на SDR дисплеях и хорошо на HDR. Не прям хорошо, но вменяемо.

При этом, поскольку второй кусок кривой логарифмический, мы можем в одно и то же число бит впихнуть больше значений экспозиции по сравнению с линейной шкалой. С меньшей точностью, конечно, но это и не страшно: у глаза шкала тоже логарифмическая, он не заметит. Это немного похоже на то, как хранятся значения в числах с плавающей запятой: чем больше значение, тем ниже точность. Так и тут.

Разумеется, HLG далеко не единственный способ так делать. Смысл в том, что большинство массовых железяк, вменяемо умеющих снимать HDR, обладают поддержкой этого HLG — поэтому его наличие можно использовать как удобный маркер для выбора для большинства пользователей. Особенно тех, кто не хочет сильно вникать в тему.

А те, кому нужен хардварный LogADC в АЦП матрицы с записью в RAW (такие железки частенько обходятся без HLG), сами разберутся :)

В принципе свет можно немного переставлять и после съёмки — для этого надо вытащить из видеопотока карту глубины, восстановить геометрию и потом можно генерить освещение с помощью 3D графики поверх реально снятого актёра и объектов.

Но для этого исходный материал должен иметь очень много избыточной информации и, желательно, не иметь своих собственных засветов и теней.

Правильно сделанный HDR на HDR экранах выглядит гораздо естественней, чем SDR на SDR. А вот криво тонированный HDR на SDR экранах да — выглядит гораздо хуже, чем SDR на SDR.

А 3D телевизоры вернутся в виде дисплеев светового поля. Главные препятствия — необходимость очков и отсутствие контента — уже почти устранены.

В реальной жизни, особенно в солнечную погоду, диапазон яркости реальных объектов очень широкий — тысячи нит.

Для сравнения, яркость обычного монитора — это где‑то 250 нит. HDR экраны могут в пике выдавать где‑то 1000–3000 нит в окне 10% от площади экрана.

Фокус в том, что глаз воспринимает яркость не линейно, а по логарифмической шкале, поэтому может спокойно наблюдать довольно яркие штуки. Но предел у него тоже есть. Солнечный диск в зените даёт где‑то 1,6 млрд нит, а на закате — от 1 до 10 млн — вот поэтому на них смотреть некомфортно.

Нет. Повышение разрядности сверх 8 бит повышает точность и количество градаций, но это никак не связано с расширением диапазона. Он может быть больше, а может быть таким же, или даже меньше.

Разрядность и диапазон — это два независимых параметра. Может быть широкий динамический диапазон на 8 битах, а может быть стандартный диапазон на 16 битах.

Например, если рассмотреть яркий ночной прожектор как пиксель экрана, то мы получим очень‑очень широкий динамический диапазон с разрядностью 1 бит (вкл/выкл).

Так это трижды зашакаленный пережатый jpg, в оригинале может вполне норм было. Особенно если оригинал вообще был плёнкой

Снижение порога вхождения снижает процент творцов среди пользователей технологии + бездумная коммерциализация уменьшает сроки и сокращает контроль качества — пипл хавает. А ещё есть квоты.

Будем с теплом вспоминать времена живых съёмок на хромакее и ламповой 3d графики, потому что всё будет делаться кривыми нейросетями :|

Суть в другом, нормальным людям важнее сюжет, чем широкий охват полутонов.

Разумеется. Соль в том, чтобы технические ограничения не мешали художникам показывать то, что они хотят, так, как они хотят. Сюжет, атмосфера, сравнения, акценты и прочее. Надо пересвет и световой контраст — будет пересвет и световой контраст. Не надо контраста — не будет. Технологии — это лишь инструмент передачи образа в том виде, в котором его задумал режиссёр.

Некоторые, даже, наоборот считают что кинематограф пострадал от тонокомпрессии и выродился в визуальном плане.

Соглашусь, современное кино часто блёклое. Не наигрались ещё с возможностью вытаскивать инфу из пятен. Но имхо это пройдет, как прошла мода на коричневый фильтр в играх.

Плёнка по‑другому реагирует на попытку её пережарить засветом. Это одна из причин, почему некоторые режиссёры её любят.

Что поправили-то? Поменяли миллион на десять?

Да.

ни в одном видеоредакторе яркость 540, и тем более 1000% установить невозможно.

На скриншоте рядом с цифрой 100000 нет символа % – а там, где он есть, значения не превышают 100

Простите, мы, кажется, говорим о самом факте возможности использования яркости в 1000% и более в видеоредакторе, а не о том, как это формально отображается в интерфейсе: в виде логарифмической шкалы экспозиции или абсолютной в процентах. Возможность поставить экспозицию выше 3.32 (логарифм 10 по основанию 2, если быть точным) — это и есть возможность указать яркость выше 1000%.

Но точно не в процентах, это просто не имеет смысла в пределах одного цветового пространства — только при сравнении охватов в разных. Но и в этом случае ни о каких многократных различиях речи быть не может.

Оно и не происходит в пределах какого‑то стандартного цветового пространства. Это относительные единицы. В случае 3D рендеринга это, грубо говоря, количество прилетевших виртуальных фотонов умножить на некий коэффициент. Ну или количество джоулей, которые принесли виртуальные фотоны, прилетевшие в виртуальный субпиксель виртуальной камеры. Всё.

И это вполне себе имеет смысл. Я могу спокойно в одном кадре совместить два объекта, яркость которых отличается в триллион (!) раз, отрендерить их, и потом делать тональную компрессию в AE. И он всё это спокойно прожуёт. Это называется физически корректный рендеринг. Просто математика, цвета здесь — это просто векторы. Поэтому тут так можно.

Яркость красного канала — 1 000 000%.

Вы не обратили внимание на отсутствие символа %?

Поправил, спасибо.

Это детали внутренней реализации конкретного кодека, к стандарту HDR никакого отношения не имеющие и в данном контексте просто вводящие в заблуждение. 

Во‑первых, я не очень понимаю, причём здесь кодек. Я захватываю сырую несжатую картинку которую только что отрендерил движок игры, прямо в видеопамять.

Во‑вторых, я и не говорил о каком‑либо стандарте HDR. Я не упомянул, что говорю про какой‑нибудь HDR10+. Речь шла о более общем понятии, о самой концепции High Dynamic Range — описание на пальцах что есть широкий динамический диапазон, а не о каком‑либо стандарте, описывающем, как изображения с этим самым широким диапазоном хранить и как с ними работать.

Например, ни в одном видеоредакторе яркость 540, и тем более 1000% установить невозможно.

Простите, но это не так. Берём тот же After Effects, ставим в настройках проекта

После чего можем установить, например, цвет прямоугольника:

Обычная яркость RGB здесь от 0,0 до 1,0
Обычная яркость RGB здесь от 0,0 до 1,0

Яркость красного канала — 10 000 000%. И да, это можно применить, окно не выдаст ошибку. И при повторном открытии свойств заливки будет 100 000. И если отрендерить это в сиквенс в том же exr — там будут эти десять миллионов процентов.

Идём дальше. Добавляем обычный фильтр цветокора Lumetri. И ставим экспозицию 7.

Экспозицию мне тоже приходилось делать. Алгоритм экспозиции — это, фактически, умножение значений каналов на 2 в степени «значение экспозиции». Если экспозиция установлена на 0, то каналы умножаются на 2⁰, то есть на 1. Если экспозиция установлена на -1, то каналы умножаются на 2⁻¹, то есть на 0.5. А мы поставили экспозицию на 7 — каналы умножаются на 2⁷, то есть на 128. То есть я только что выставил яркость на 12 800%. Да, есть гамма и прочие особенности нелинейности, есть цветовое пространство, но, так или иначе, для 1000% этих возможностей точно хватит.

И я могу спокойно отрендерить exr‑сиквенс из 3ds max, прогнать через вот такие вот запредельные значения и сгенерировать в новый exr сиквенс. И всё там прекрасно посчитается и сохранится. Потому что это просто числа с плавающей запятой, практически ограниченные какими‑либо рамками (потолок у них, конечно, есть, но он оооочень большой).

Извините, это чрезмерная упрощённость.

Абсолютно согласен. Но для большинства людей этого достаточно, ибо гораздо понятнее, чем цветовые пространства, нелинейности, спектры, RAW и инструменты цветокоррекции. Если лезть туда, то будет километр текста — сначала надо будет объяснить понятийный аппарат, потом историю, потом задачи и возникающие проблемы вследствие несовершенства технологий, потом как они решаются. А нужны все эти знания будут только тем, кто профессионально работает с цветом.

Здесь же я дал справку, достаточную, чтобы +‑ отличить маркетинговый bullshit от чего‑то, что реально претендует на HDR. И всё.

«Не втыкайте мокрыми руками вилку в розетку» вместо «вода на ваших руках с высокой степенью вероятности содержит соли и другие примеси, которые имеют достаточно низкое сопротивление, чтобы образовать цепь...».

Извините, это чрезмерная упрощённость. Ярче 100% какого цветового пространства? И что за дикие цифры, 540%? Rec.2020 имеет максимальную яркость 107% от Rec.709, например.

В процессе обработки, например, внутри мозгов рендерера в 3ds max или в игре, яркость может быть и больше — она там задаётся числом с плавающей запятой и рассчитывается исключительно математически. Ничто не мешает мне в 3д редакторе поставить две лампы в миллиард кандел и в один кандел, и результат рендеринга сохранить в exr в fp32. А вот когда картинка с этими яркостями отображается и/или запечатлевается устройством — да, вступают в силу ограничения.

Я как‑то писал алгоритм захвата HDR рабочего стола под Windows через DirectX OutputDuplication 6. Мои экраны 10-битные, тем не менее, Windows хранит текстуру рабочего стола в виде 16-битных чисел с плавающей запятой. Так вот, в процессе отладки на HDR‑играх я частенько обнаруживал, что значение пикселя может переваливать вообще за 10,0, даже не за 5,4. Потому что это рассчитанная движком игры яркость до компрессии, а он использует физически корректный рендеринг.

Эта же текстура‑холст, которую я захватил для анализа, потом отправляется в алгоритмы компрессии (драйверами и/или DirectX), которые уже впихивают эти запредельно большие значения в то, что может показать экран — в моём случае это около 1000 нит. Но на этапе расчётов там могут быть абсолютно любые цифры.

Именно поэтому я выше чётко отделил абстрактное представление и обработку изображения в компьютере от способов его захвата и отображения. В первом случае мы практически не ограничены (хотя, при необходимости, можем себя ограничить сознательно, работая в каком‑то цветовом пространстве), во втором — обязательно ограничены много чем в много каких аспектах.

HDR-400, например, требует 400 нит яркости, а вовсе не 1000. И картинка будет точно лучше, чем SDR

Я видел HDR400 — имхо, качественных различий для неискушенного человека маловато. Поэтому я, опять же, чрезмерно упрощая, упомянул именно 1000, как минимальный порог, с которого даже для неискушённого человека начинаются существенные различия.

Не уверен даже, что есть хоть одно реальное устройство, которое ему соответствует.

MicroLED могут выходить на яркость 10 000 нит, правда, насколько мне известно, на текущий момент их не стандартизировали. А стандарт, вроде бы, есть — DolbyVision, в котором максимум — те самые 10 000 нит на 12 битах. Правда вопрос, насколько это маркетинг.

«На лампу подали вместо 220 вольт 1200, и она загорелась в 5.4 раза ярче», грубо говоря.

В реальности всё не так, разумеется — ставят лампы (или пиксели в случае с OLED/MicroLED) в несколько раз ярче, чем надо, но используют большую часть времени только на пару десятков %. И вот эти условные 20% реальной яркости считаются за 1.0.

В особо суровых ЖК дисплеях бывает два слоя ЖК, чтобы лучше глушить такие вот супер яркие лампы.

Это пока пересветов и недосветов нету :)

Нет. Если говорить очень упрощённо HDR — это когда пиксель может быть ярче 100%.

Попытаться представить HDR на SDR дисплее

Для лучшего эффекта рекомендуется смотреть картинку на весь экран на чёрном фоне и выкрутить яркость экрана на максимум.

То есть его каналы R, G и B — могут иметь значения не только от 0.0 до 1.0, но и больше 1.0, например, 1.1, 1.3 или 5.4. На втором месте играет роль сохранение деталей в тенях. То есть, в отличие от классического представления изображения, мы не проваливаемся в 0, когда яркость меньше 1/255. Но эта особенность с тенями второстепенна и есть не только в HDR. Самое главное — это яркость выше 100%. Причём, возможны комбинации: например, R==0.3, G==0.9, B==2.3 — этот цвет просто невозможно представить с помощью классической цветовой модели.

Для HDR есть разница между, например, фиолетовым и ярко‑ярко фиолетовым на небе на закате. Это буквально разные цвета. Белое солнце и белый лист бумаги — тоже разные.

Получить HDR можно сняв на камеру, которая это поддерживает, отрендерить с помощью графического движка, который это умеет. А можно синтезировать его на основе обычного изображения (SDR) — руками, фильтрами, нейросетями и т. п. Или сделать несколько фото с разной экспозицией и потом свести в одну HDR‑фотку — смартфоны чаще всего именно это и делают. Ключевая особенность, которой должна обладать камера, чтобы снимать настоящий HDR — гибридная логарифмическая гамма.

Далее возникает вопрос — как его отобразить. Есть HDR экраны, которые на аппаратном уровне поддерживают свечение выше 100% — они так и называются HDR. Море, ночные огни, закаты, пламя и прочие штуки на таких дисплеях выглядят на порядок красивее — как настоящие.

Однако, у таких дисплеев тоже есть предел: например, 250% они отобразят, а 5000% уже нет. Важно, чтобы такой дисплей имел многозональную подсветку, 10-битную матрицу и пиковую яркость не менее 1000 нит, иначе HDR он не сможет показать. Кроме того, бытовые экраны часто могут так ярко светить только небольшой областью — не более 10% площади экрана. Про‑экраны могут светить целиком.

Большинство 3D игр чуть ли не с 2005 года в своих движках рендерят и обрабатывают изображение в формате HDR, и только на последних этапах рендеринга ужимают до SDR, имитируя инертность приспособления глаза и прочие штуки. А современные игры часто умеют обнаруживать HDR‑дисплей и выводить в него оригинальную HDR‑картинку.

На обычных SDR дисплеях HDR‑изображение нужно впихнуть в обычный диапазон от 0 до 1. Тут применяют ухищрения, которые сводятся к тому, что тени осветляются, пересветы затемняются.

И вот часто HDR‑ом называют SDR‑картинку, которую фотошопом или фильтрами вытянули в HDR‑диапазон, а потом сжали этот диапазон обратно до SDR. И обычно это происходит за 1 этап, который так и называется HDR‑фильтр. Но этот HDR имеет к настоящему такое же отношение, как доширак к итальянской пасте в мишленовском ресторане.

Идеи, конечно, интересные, но закон сохранения энергии никто не отменял. То, что генерирует энергию, человеку будет делать тяжелее — надо будет тратить больше сил. И жрать надо будет больше.

Все подобные штуки, фактически — превращение энергии из еды в электричество, а человек лишь промежуточный этап.

1
23 ...

Information

Rating
1,869-th
Registered
Activity