Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
Сходил по ссылкам на предыдущие статьи из цикла, решил, что мой вопрос наиболее подходит к этой статье (хотя и сюда, наверное, не вполне подходит...).Вопрос к 1 или 4 статье, и уже отвечался в 4-й ), не в немного другой постановке. Отвечу )
Когда я смотрю 3D в кинотеатре, мои глаза устают прежде всего от того, что в кадре как будто бы только одна точка фокусировки..., тогда всё остальное будет в «правильной» для глаза расфокусировке.… Вон, я рассматриваю тот кустик на заднем плане, который, судя по стереопаре, находится на таком-то расстоянии, фокусирую зрение на нем, а он все такой же размытый (потому что так снято!). Получается, что глаза вроде как делают все правильно, а картинка все такая же несфокусированная. Почему так делают и почему с этим не борются (или борются?)
И еще один вопрос, пожалуй: если зритель сидит достаточно далеко от центра экрана (например, на крайних местах ряда), он смотрит на экран под углом, и перспектива неминуемо плывет. Оказывает ли это существенное влияние на восприятие 3D, или тут как раз мозг успешно «компенсирует» это так же, как и в случае с 2D-изображением? (К счастью / к сожалению, на себе такой просмотр «сбоку» не тестировал, поэтому это не вопрос «вот как плохо выходит, как это исправить», а просто любопытство).Лучше не тестируйте. Это, конечно, влияет. И мозг компенсирует плохо. Более того — если используются пассивные очки (RealD, IMAX, MasterImage), то там crosstalk (то, насколько один ракурс просвечивает в другом) сильно зависит от угла, под которым вы смотрите. Т.е. на боковых местах вы будете страдать от двоения объектов. Думаю, что это лишнее. )
Хорошо видны нелинейные искажения объектов сцены, которые невозможно исправить поворотом и которые вообще сложно исправить. Мы видим, что люди стоят вертикально, однако, с точки зрения воспринимаемой глубины их туловища заметно и “невозможно” наклонены. Этот средний план также явно снимался на side-by-side стереориг с конвергенцией осей камер.
Насколько я понимаю теорию, кадр кинокамеры — это не просто 2D картинка, а его можно считать этакой неполной панорамой. 2 кадра — это 2 неполных панорамы. Даже если оси сходятся или не лежат в одной плоскости, обе неполных панорамы можно поворачивать в нужном направлении по всем 3м осям вращения относительно центра каждой из них и так спозиционировать, чтобы всё–таки получить правильное стереоизображение. С точки зрения программной реализации, это будут проективные искажения, а не просто повороты кадров.
По моему опыту обратной коррекции перспективы в GIMP, некоторые камеры дают подушкообразные искажения, прямые линии перестают быть прямыми, и всё становится сложнее. Но мне кажется, для стерео такие камеры должны заведомо не подходить, они будут портить все кадры.Там делается проще. Если параметры объектива известны — «подушка» исправляется сразу.
В связи с этим у меня, как у программиста, рождаются мысли, что, чтобы ограничить подобные проблемы в будущем, в видеокадры должны внедряться метки, такие как фокус, центр картинки, а для 3D видео — максимальный параллакс, и инструменты должны эти метки понимать и не позволять делать некорректные операции.Если бы все было так просто ))). Начнем с того, что часто даже просто оценить диспаритет в реальном времени — крайне сложно (из-за того, что ракурсы разные по цвету, резкости и т.п.) и там еще много проблем. И заканчивая тем, что, вы будете удивлены, но спрос и на контроль и на исправление стерео весьма слаб. В основном пипл хавает не разбираясь и у лиц, принимающих решение, пока нет стимула платить за улучшение качества. Возможно ситуация изменится в следующую волну популярности 3D (скорее всего после 17-18 года и 2-3 Аватара).
Да, это делать можно. Подробнее про это было в 4-й части, посмотрите. )
Отображение, обратное проективному, является проективным отображением. Композиция проективных отображений является проективным. То есть, множество проективных отображений образует группу.
Аффинное преобразование является частным случаем проективного.
Если бы все было так просто ))). Начнем с того, что часто даже просто оценить диспаритет в реальном времени — крайне сложно (из-за того, что ракурсы разные по цвету, резкости и т.п.) и там еще много проблем.
Да, это делать можно. Подробнее про это было в 4-й части, посмотрите. )
Нет, про проективные преобразования там не было,
Даже если оси сходятся или не лежат в одной плоскости, обе неполных панорамы можно поворачивать в нужном направлении по всем 3м осям вращения относительно центра каждой из них и так спозиционировать, чтобы всё–таки получить правильное стереоизображение. С точки зрения программной реализации, это будут проективные искажения, а не просто повороты кадров.
объединении мы просто вшиваем это число, а потом при каждой трансформации просто поддерживаем в актуальном состоянии. И без всяких карт диспаритета.
В теории — это действительно сделать можно. Но как будете заполнять области открытия теперь уже возникающие над и под объектами? )
Ключевое слово «при каждой трансформации».
Я ещё раз говорю, я не рассматриваю такую тяжёлую артиллерию. Мы делаем с обоими кадрами проективное преобразование, и никаких областей дополнительных не появляется и не убавляется.
Берём сцену, находим в ней несколько острых углов предметов, эти углы в каждом кадре после преобразований должны оказаться на одной горизонтали.
Под трансформациями я имел в виду увеличения и обрезания кадра.Теперь понял ). У вас намного проще подход, чем я изначально подумал.
Вот мне кое-что непонятно…При осмотре реальных объектов оптические оси глаз почти всегда пересекаются. Значит и оси камер при съёмке должны пересекаться! А в статье говориться, что это не есть хорошо… Приводится пример искажений, что в одном кадре прямоугольник станет такой трапецией, а в другом — такой. Но ведь в жизни глазами мы и видим трапеции! Ну как минимум одним газом — точно. Если только речь не о каком-то созвездии на небе, мы не можем видеть обоими глазами одновременно фигуру с четырьмя прямыми углами.
Ну и на счёт стерео-рига. Я понимаю проблемы далёкого прошлого: кинокамеры под 35-мм плёнку, хочешь того или нет, были громоздкими. Но сейчас?.. Берём две беззеркалки, ставим вплотную — вот уже у нас всего двукратное расстояние между глаз. Берём их же и одну переворачиваем вверх ногами (объективы не по центру стоят, а с краю) и вновь вплотную — вот у нас ровно расстояние между глаз.
Ну и вообще непонятно, почему бы не снимать такими объективами, с которыми угловые размеры объектов на запланированном экране будут совпадать с наблюдаемыми невооружённым глазом на съёмочной площадке, расположив оптические оси на расстоянии равном расстоянию между глаз? Это дало бы максимально реалистичное изображение. В фотографии вот классика — 50 мм объектив на 35 мм плёнку. Именно потому, что тогда угловые размеры объектов на снимках 10х15 — 13х18 (наиболее распространённых), рассматриваемых с расстояния 25-35 см, примерно совпадают с наблюдаемыми фотографом на месте съёмки.
Почему от 3D болит голова / Часть 5: Геометрические искажения в стерео