Комментарии 85
недавно пытался объяснить друзьям что голограммы аля «Звездные войны» и «чудо концепт Айфона пятого» еще не существует. такой обзор был бы тогда очень кстати. а то ведутся ведь на всю эту ерунду
Не знаю как насчёт пятого яблофона, а вот голограммы, причём не а-ля, а куда по круче звёздных войн,
существуют и уже давно.
Вот, журнальчик, почитайте, в начале и в конце, и вообще интересный номер получился...
А выше перечисленная байда, даже на псевдоголографию не тянет, обычная видео проекция,
не дающая никакого обзора объёма.
Иное дело растровая оптика или вольюметрические дисплеии.
существуют и уже давно.
Вот, журнальчик, почитайте, в начале и в конце, и вообще интересный номер получился...
А выше перечисленная байда, даже на псевдоголографию не тянет, обычная видео проекция,
не дающая никакого обзора объёма.
Иное дело растровая оптика или вольюметрические дисплеии.
А какая технология используется в Диснейленде в Париже? Видел там подобное, очень реалистично.
Где именно, я что-то упустил? :/
Как называется аттракцион не запомнил. Возят в кабинке по рельсам в доме с привидениями.
Да-да, там ещё пол при входе опускался, а «приведения» танцуют внизу вальсы всякие, вид — как будто на них со второго этажа смотришь!
Это очень качественно сделано, я всё искал источники света, но безуспешно да и быстро прокатывают там…
Это очень качественно сделано, я всё искал источники света, но безуспешно да и быстро прокатывают там…
А есть какое-нибудь видео?
«Как вы понимаете, где линза/призма, там и аберрации»
Ну само собой разумеется, кто ж усомнится в этом очевидном факте.
Ну само собой разумеется, кто ж усомнится в этом очевидном факте.
Сфокусированный пучок лазера ионизирует газ
Читал о таком свойстве лазера будучи еще в школе, и все думал почему его для голограмм не используют? Чуть позже прочитал о другом его свойстве при попадании на сетчатку глаза… интересно как создатели прототипа обошли этот эффект?
Правда если изображение будет в точке выше уровня глаз на открытой местности — то все в порядке......?
Вот это, наверное, самое настоящее голографическое изображение. Сфокусированный пучок лазера ионизирует газ, который в свою очередь генерирует свет в данной точке.
До коммерческих продуктов, конечно, далеко, но технология уже впечатляет!
Любой газ, включая обычный окружающий нас воздух, или нужен стеклянный контейнер со специфическим газом?
И, любопытно, как они делают именно точку. Мои противозачаточные знания физики вопят о том что лазер — это луч, и если он ионизирует газ и заставляет его светиться, то при включении такого лазера мы увидим светящийся луч, а не точку O_O.
Газ любой, а точка возникает в фокусе луча.
луч лазера в любом случае расходится или сходится, т.е. его сечение не постоянно вдоль оси луча. Как раз именно в этой точке на оси луча, где сечение минимально (фокус), плотность энергии максимальна, там и происходит свечение плазмы.
Спасибо за разъяснение. Любопытно, тогда какая может быть угроза глазам, если не совать голову непосредственно в изображение? Ведь после точки луч будет расходиться и очень быстро потеряет поражающие свойства.
Сдается мне, что приведенная на видео технология очень опасна для глаз, т.к. наблюдали они за эффектом с приличного расстояния.
Она, пипец как опасна, мощности там не детские, по этому проекцию обычно делают над людьми, и оборудование подвешивают так, что бы даже под ход лучей никто не попал.
Более того, ближе к концу ролика есть фрагмент в реальном времени — там в воздухе трещат тусклые искорки, и их не так много, как на тех кадрах, на которых показывают яркие полные картинки.
Думаю, яркие полные картинки выполнены в технике фризлайт — сняты покадрово, с большой выдержкой. А пока никакой анимации и 3D-картинок в реальном времени у них не получается.
Думаю, яркие полные картинки выполнены в технике фризлайт — сняты покадрово, с большой выдержкой. А пока никакой анимации и 3D-картинок в реальном времени у них не получается.
Одного луча недостаточно для перевода газа в состояние плазмы. В подобной конструкции, как и в лазерной медицине используется несколько лучей лазеров (обычно 3), которые направляют синхронно в одну 3D точку. При прохождении одновременно 3-х лучей через одну точку, в ней создается достаточная температура (грубо в 2,5-3,0 раза больше, чем по ходу одного луча), чтобы превратить в этой точке газ в плазму.
А один луч втрое большей мощности? :-)
Тогда точки не получится, будет плазмовый луч некой длины. Переход из состояния «газ» в состояние «плазма» требует некой достаточно большой энергии. На самом деле достаточно и двух лазеров, но тогда мощность каждого из них слишком велика, т.к. прогревает весь луч достаточно сильно — практически до температуры перехода в состояние «плазмы». Чем больше лазеров концентрируются в одной точке, тем меньшее энергии требуется каждому из них, и тем более безопасна эта технология для людей. Если их, например, будет 100 штук, каждый с энергией в 1.2% от необходимой суммарной, то такой лазер уже безопасен при попадании на кожу человека, плюс вы можете спокойно перемещаться, перекрывая 2-3 из них (до 16-и), т.к. их недостижение фокусной точки скажется всего в 2-3 процентах мощности разогрева, не повлияв на конечный результат. Естественно, лазеры должны быть максимально равно-распределены по контуру пространства.
Блин, пару месяцев назад на хабре проскакивала статья от пары бауманцев, которые сделали реальный 3Д монитор на базе лазеров, подсвечивающих пар над столом. Тут и честный 3Д, и трехмерный тач, и мощность лазеров такая, что глазам не страшно (ионизировать-то ничего не нужно).
Жаль, ссылку не могу найти.
Жаль, ссылку не могу найти.
Если таки найдете, опубликуйте, пожалуйста!
НЛО прилетело и опубликовало эту надпись здесь
Если они, то комментатор выше сильно путает — это далеко не «честный 3D», а обычный проектор, который проецирует на водяной пар. Из нового (во всяком случае, заявленного авторами) — технология формирования потока этого пара.
Ого, не знал, что за технологии шестилетней давности можно получить какой-либо грант и называть это инновацией. Тач в DisplAir реализован на Кинекте, как и в других подобных инсталляциях. По поводу пара уже писал: ультразвуковой генератор пара (как в декоративных фонтанчиках) + вентиляторы.
Да-да, им все это уже высказали в той теме, но начались ответы в духе «сперва добейся».
По поводу генератора пара — они говорили что там как-то принципиально ново просчитаны потоки частиц, таким образом, что стена этого пара не рассыпается от пихаемых в нее пальцев.
По поводу генератора пара — они говорили что там как-то принципиально ново просчитаны потоки частиц, таким образом, что стена этого пара не рассыпается от пихаемых в нее пальцев.
У меня есть генераторы пара, я на них делал искусственный огонь из воды. По этому поводу так же готовлю статью. Заодно проверю, каким образом пар ведет себя при наличии пальца. Сдается мне, что пар будет его огибать, подобно дифракции.
А как во всех этих технологиях, кроме тех, что описаны в секции «бонус» корректируется изображение в соответствии с углом обзора? Или никак?
Я думал, что в этих пирамидах как-то это реализовано, иначе совсем получается неинтересно, стоит обойти и иллюзия разрушается… А вот со вращающимся зеркалом на ютубе действительно было несколько занятных видео, со всех сторон снятых.
Я думал, что в этих пирамидах как-то это реализовано, иначе совсем получается неинтересно, стоит обойти и иллюзия разрушается… А вот со вращающимся зеркалом на ютубе действительно было несколько занятных видео, со всех сторон снятых.
Не понимаю, как для всех этих проекций через пленку (типа pepper's ghost) достигается необходимое для 3D условие — чтобы левый глаз видел одно изображение, а правый — другое, слегка повернутое.
Иначе это же не 3D будет, это так, «большое полупрозрачное изображение несуществующего объекта» — или это все исключительно в расчете на большие расстояния, чтобы этим пренебречь?
Иначе это же не 3D будет, это так, «большое полупрозрачное изображение несуществующего объекта» — или это все исключительно в расчете на большие расстояния, чтобы этим пренебречь?
Это и есть фактически «большое полупрозрачное изображение несуществующего объекта».
Грамотно созданный контент, грамотно подобранный фон и освещение полностью «дезориентируют» обычного зрителя.
Если в технологиях Pepper's ghost и Фриформат вывести статичную картинку и походить влево-вправо, то вы увидите, что изображение плоское.
Это все иллюзии, обман.
Грамотно созданный контент, грамотно подобранный фон и освещение полностью «дезориентируют» обычного зрителя.
Если в технологиях Pepper's ghost и Фриформат вывести статичную картинку и походить влево-вправо, то вы увидите, что изображение плоское.
Это все иллюзии, обман.
Ну я осознаю, что это обман, но обман тоже разным может быть)
В том плане, что из описанного выше только лазерный ионизатор реально создает точку в 3D пространстве, но вращающееся зеркало, хоть и использует проекцию на плоскость, все таки куда более качественный обман (больше возможностей), чем pepper's ghost)
Я просто думал — вдруг, на самом деле, там еще какая хитрость применяется. Ну, знаете, например — когда пользователь один, допустим, применяют трекинг головы при помощи технологий типа Kinekt'а, чтобы корректировать выводимое изображение в зависимости от угла — вот такого плана: Head Tracking for Desktop VR Displays using the WiiRemote
В том плане, что из описанного выше только лазерный ионизатор реально создает точку в 3D пространстве, но вращающееся зеркало, хоть и использует проекцию на плоскость, все таки куда более качественный обман (больше возможностей), чем pepper's ghost)
Я просто думал — вдруг, на самом деле, там еще какая хитрость применяется. Ну, знаете, например — когда пользователь один, допустим, применяют трекинг головы при помощи технологий типа Kinekt'а, чтобы корректировать выводимое изображение в зависимости от угла — вот такого плана: Head Tracking for Desktop VR Displays using the WiiRemote
Никто не сказал о проблеме находящейся в совсем другом месте. При переходе к «картинке» в настоящем 3D нам надо обработать намного больше точек, чем в 2D. Не просто обсчитать сцену, а именно быть готовым эти массивы пропихивать на устройство отображения. Куб-экран 800*800*800 точек и вот вам 512 мегапикселей 30 раз в секунду. А это не 2 или 4 мегапикселя привычного нам видео.
Это не пиксели, а воксели. Никто не заставляет закрашивать внутри модели все, вы же в 3D моделях в играх и т.п. не найдете внутренних органов. Рисуют верхнюю оболочку, не более. А это уже куда меньше информации.
Только на экране монитора это всеравно «точка». С своими координатами и состоянием. Даже если это не светящийся пиксель.
Кто вам это сказал?
Если вы выводите прямоугольник на экран через от же OpenGL, почти до самого конца идут только четыре точки — координаты его углов. В набор пикселей они превращаются в конце конвеера.
А если вы выводите модель какого-нибудь объекта, то невидимые вам грани (обратная сторона модели) не превращается в них никогда, ибо отсечение работает. Нет у них состояния.
Так и тут, вы подаете на отрисовывающее устройство вершины куба — оно в процессе визуализации рисует с доступным ей разрешением грани и только грани, не закрашивая внутри, если этого не требуется.
Если вы выводите прямоугольник на экран через от же OpenGL, почти до самого конца идут только четыре точки — координаты его углов. В набор пикселей они превращаются в конце конвеера.
А если вы выводите модель какого-нибудь объекта, то невидимые вам грани (обратная сторона модели) не превращается в них никогда, ибо отсечение работает. Нет у них состояния.
Так и тут, вы подаете на отрисовывающее устройство вершины куба — оно в процессе визуализации рисует с доступным ей разрешением грани и только грани, не закрашивая внутри, если этого не требуется.
Монитор понятия не имеет, что такое прямоугольник. Для него есть точка с координатами и RGB. Если монитор 640*480 то он должен обработать 307200 точек за кадр. Получить от видеокарты эту информацию и вывести.
Причем тут монитор? Видеокарта имеет понятие о том, что такое прямоугольник. И о том, что такое точка в 3D пространстве. Современная видеокарта, по крайней мере. Так как 3D монитор требует соответствующего аппаратного обеспечения (не может быть подключен напрямую к стандартному видеовыходу, так как принимает на вход информацию о точках в 3D пространстве), он представляет собой комбинированное устройство, если хотите — «спец-видеокарта+монитор». На вход ей идут трехмерные координаты объектов, модели, допустим. Выполняется отсечение, в соответствии с настройками 3D сцены и рендерера, потом производится непосредственно вывод видимых точек.
Если так уж свербит, можно отсечение переложить на софт на компьютере. Но в результате вы все равно не получите лишних точек, не будет их.
Если так уж свербит, можно отсечение переложить на софт на компьютере. Но в результате вы все равно не получите лишних точек, не будет их.
Я даже не хочу касаться того, что будет делать видеокарта с настоящим 3D в реалтайм который надо обсчитать с всех возможных предполагаемых точек наблюдения, а не с одной заведомо известной (или двух для стереодрайвера). Давайте ограничимся скажем истинным 3D видео — заранее снятым или отрендеренным.
Нам надо зажечь или не «зажечь» 500 миллионов точек для разрешения 800*800*800. Это информация. Она должна быть считана из файла и передана на монитор для исполнения. 30 раз в секунду.
Нам надо зажечь или не «зажечь» 500 миллионов точек для разрешения 800*800*800. Это информация. Она должна быть считана из файла и передана на монитор для исполнения. 30 раз в секунду.
А зря не хотите касаться. Не будет ей разницы, вы это понимаете? Никакой разницы не будет, у вас модель на входе все равно одна и та же — набор из некоторого количества точек в пространстве.
В случае вывода этого на истинный 3Д монитор, вам не нужно ни освещения считать, ни проекции на плоскости — никаких «обсчетов со всех предполагаемых точек». Вам нужно только зажечь/не зажечь *видимые* точки. Эта информация совершенно легко рассчитвается для замкнутых поверхностей в реальном времени и не требует передачи «на монитор для исполнения» никаких миллионов точек.
Вы передаете с компьютера на устройство отображения 8 точек для отрисовки куба.
Схематика устройства по синхроимпульсу (тут их будет 3, а не два, соответственно) начинает последовательно пробегать точки рабочей области.
Решение о том, зажигать точку или нет, принимается на основании переданной сцены в реалтайме — это обычные расчеты из обычной геометрии в пространстве — определение «принадлежит ли точка X плоскости, заданной точками 1,2,3»
Так как изображение можно увидеть со всех сторон, отсекаем не по глубине, а только внутренние точки — если нам это требуется, то в дополнение к первому уравнению (в трех координатах, разумеется, разворачивается в три одномерных) добавляется определение принадлежности точки имеющимся в сцене замкнутым областям — которые, кстати, могут быть точно также предпросчитаны.
Вот и все. Никто не будет гонять ваши 800х800х800 туда-сюда.
В случае вывода этого на истинный 3Д монитор, вам не нужно ни освещения считать, ни проекции на плоскости — никаких «обсчетов со всех предполагаемых точек». Вам нужно только зажечь/не зажечь *видимые* точки. Эта информация совершенно легко рассчитвается для замкнутых поверхностей в реальном времени и не требует передачи «на монитор для исполнения» никаких миллионов точек.
Вы передаете с компьютера на устройство отображения 8 точек для отрисовки куба.
Схематика устройства по синхроимпульсу (тут их будет 3, а не два, соответственно) начинает последовательно пробегать точки рабочей области.
Решение о том, зажигать точку или нет, принимается на основании переданной сцены в реалтайме — это обычные расчеты из обычной геометрии в пространстве — определение «принадлежит ли точка X плоскости, заданной точками 1,2,3»
Так как изображение можно увидеть со всех сторон, отсекаем не по глубине, а только внутренние точки — если нам это требуется, то в дополнение к первому уравнению (в трех координатах, разумеется, разворачивается в три одномерных) добавляется определение принадлежности точки имеющимся в сцене замкнутым областям — которые, кстати, могут быть точно также предпросчитаны.
Вот и все. Никто не будет гонять ваши 800х800х800 туда-сюда.
Это лукавство. И я уже объяснил почему.
Ладно, у нас вообще нет компьютера — магнитофон с записанным 3D и 3D монитор. Никто ничего не считает. Только выводим картинку. Итак — у нас 500 миллионов точек. У каждой есть состояние которое надо отобразить. Не зажженный пиксель тоже имеет своё состояние — координаты XYZ и яркость 000 в RGB.
Ладно, у нас вообще нет компьютера — магнитофон с записанным 3D и 3D монитор. Никто ничего не считает. Только выводим картинку. Итак — у нас 500 миллионов точек. У каждой есть состояние которое надо отобразить. Не зажженный пиксель тоже имеет своё состояние — координаты XYZ и яркость 000 в RGB.
>Это лукавство. И я уже объяснил почему.
Что конкретно «это» и где вы объяснили?
Если у нас «вообще нет компьютера», то крутить зеркала лазера вам придется вручную, без вычислителя некому фокусировать лазер последовательно на каждой точке рабочего пространства.
А если вычислитель есть, то в его прошивку добавляется реал-тайм расчет принадлежности точек к плоскостям, и с вашего «магнитофона» опять-таки считываются только точки сцены, которая разбита на полигоны.
Также как от вас абстрагированы ваши 800х600х3 транзистора в обычных мониторах, к затворам которых идет куча контактов от управляющей микросхемы. Вы не считаете напряжения в вольтах, вы не заботитесь о синхроимпульсах.
А при работе с 3Д видеокарта абстрагирует еще больше — вы не пишете напрямую видеопамять, а передаете ей информацию о сцене, текстурах и т.п.
Знаете зачем? Затем, что это позволяет вам разгрузить ваш процессор, шину связи с видеокартой, а также позволяет вам намного проще разрабатывать 3Д приложения.
Поэтому здесь решение будет точно таким же, от вас абстрагируют нижние уровни. Они будут расчитываться в реал-тайме, на уровне того же контроллера, который отвечает за поворот зеркал и перефокусировку. А извне будет поступать только информация о 3Д сцене.
Если вам так свербит, конечно, вы можете реализовать как хотите, голыми вокселями — тогда роль этого контроллера возьмет на себя ваш ЦП, и вы должны будете успеть за синхроимпульсами сообщить девайсу о том, какие точки зажигать. Только в этом случае это не «проблема, о которой забыли упомянуть», а кривая реализация, к которой, я полагаю, инженеры и в страшном сне не обратятся.
Что конкретно «это» и где вы объяснили?
Если у нас «вообще нет компьютера», то крутить зеркала лазера вам придется вручную, без вычислителя некому фокусировать лазер последовательно на каждой точке рабочего пространства.
А если вычислитель есть, то в его прошивку добавляется реал-тайм расчет принадлежности точек к плоскостям, и с вашего «магнитофона» опять-таки считываются только точки сцены, которая разбита на полигоны.
Также как от вас абстрагированы ваши 800х600х3 транзистора в обычных мониторах, к затворам которых идет куча контактов от управляющей микросхемы. Вы не считаете напряжения в вольтах, вы не заботитесь о синхроимпульсах.
А при работе с 3Д видеокарта абстрагирует еще больше — вы не пишете напрямую видеопамять, а передаете ей информацию о сцене, текстурах и т.п.
Знаете зачем? Затем, что это позволяет вам разгрузить ваш процессор, шину связи с видеокартой, а также позволяет вам намного проще разрабатывать 3Д приложения.
Поэтому здесь решение будет точно таким же, от вас абстрагируют нижние уровни. Они будут расчитываться в реал-тайме, на уровне того же контроллера, который отвечает за поворот зеркал и перефокусировку. А извне будет поступать только информация о 3Д сцене.
Если вам так свербит, конечно, вы можете реализовать как хотите, голыми вокселями — тогда роль этого контроллера возьмет на себя ваш ЦП, и вы должны будете успеть за синхроимпульсами сообщить девайсу о том, какие точки зажигать. Только в этом случае это не «проблема, о которой забыли упомянуть», а кривая реализация, к которой, я полагаю, инженеры и в страшном сне не обратятся.
Лукавство в том, что вы постоянно уходите на уровень выше. Обработку, подготовку 3D в компьютере.
Именно абстрагируетесь от более низкого уровня. А я именно про него пишу. Про те самые транзисторы (лазеры, системы фокусировки), которые должны узнать — зажигать им конкретный пиксель в объеме или нет. И каким цветом зажигать. И откуда они об этом узнают.
А они это должны получить с видеокарты! Именно с того места, о котором вы пишете «а дальше все просто, монитор нарисует». Не нарисует, как монитор 1920*1200 подключенный по USB 2 к видеокарте.
Именно абстрагируетесь от более низкого уровня. А я именно про него пишу. Про те самые транзисторы (лазеры, системы фокусировки), которые должны узнать — зажигать им конкретный пиксель в объеме или нет. И каким цветом зажигать. И откуда они об этом узнают.
А они это должны получить с видеокарты! Именно с того места, о котором вы пишете «а дальше все просто, монитор нарисует». Не нарисует, как монитор 1920*1200 подключенный по USB 2 к видеокарте.
Нарисует, потому что никто эту логику не будет из него выносить.
Это часть монитора, понимаете? Вот этот блок, считающий принадлежности к плоскостям. Как раз именно для того, чтобы не гонять туда-сюда тонны информации.
Его как раз и следует размещать там же, где формирователь синхроимпульсов, т.к. это та же задача.
Это часть монитора, понимаете? Вот этот блок, считающий принадлежности к плоскостям. Как раз именно для того, чтобы не гонять туда-сюда тонны информации.
Его как раз и следует размещать там же, где формирователь синхроимпульсов, т.к. это та же задача.
Опять уловка — «давайте уберем кабель и видеокарта у нас будет в мониторе, тогда нам не понадобится супер DVI кабель с сумасшедшей пропускной способностью».
Весь этот диалог отличная демонстрация написанного мною в самом начале — про проблему колоссальных объемов информации, которые монитор должен визуализировать. Про то, как он это будет делать.
Весь этот диалог отличная демонстрация написанного мною в самом начале — про проблему колоссальных объемов информации, которые монитор должен визуализировать. Про то, как он это будет делать.
Дико извиняюсь, но если совсем уж идти к нижнему уровню, то имеются вполне себе «настоящие» голограммы. Именно те которые сделаны фотографическим способом в потоке когерентного освещения (wiki). Были проекты для записи голографических кадров на пленку (та же самая кинопленка) и воспроизведения НАСТОЯЩЕЙ голограммы, в движении, по-кадрово. Так что варианты именно ВОСПРОИЗВЕДЕНИЯ 3D-изображения есть и без передачи огромных объемов информации.
UPD: Кстати, что мешает использовать 8-модульный оптический кабель со скоростью передачи до 24 ГБит/с?
UPD: Кстати, что мешает использовать 8-модульный оптический кабель со скоростью передачи до 24 ГБит/с?
Настоящая голограмма аналоговая по своей природе.
По аналогии — кадр 35 мм фото/кино пленки примерно 4-6 мегапикселей после оцифровки.
Смотрим HDMI 1.4 — поддержка 4k * 2к что дает? 8 мегапикселей. Это качество перекрывает любой фильм снятый на 35 мм пленку и подбирается к качеству IMAX.
Кадр с голограммы после оцифровки те-же сотни мегапикселей.
24 ГБит/с? HDMI у нас 10 ГБит/с позволяет работать с 4к*2к. Для взятого мной для примера 0.8k*0.8k*0.8k сколько надо ГБит/с? И что мы в нем увидим? Это кубик какого размера, чтобы картинка была более-менее отчетливая? 20*20*20 см? Думаю меньше.
Поэтому у нас пока за каждым честным 3D проектором или монитором будет стоять незаметно в сторонке очень мощный компьютер или картинка будет дерганная и низкого разрешения. Что собственно мы и наблюдаем.
По аналогии — кадр 35 мм фото/кино пленки примерно 4-6 мегапикселей после оцифровки.
Смотрим HDMI 1.4 — поддержка 4k * 2к что дает? 8 мегапикселей. Это качество перекрывает любой фильм снятый на 35 мм пленку и подбирается к качеству IMAX.
Кадр с голограммы после оцифровки те-же сотни мегапикселей.
24 ГБит/с? HDMI у нас 10 ГБит/с позволяет работать с 4к*2к. Для взятого мной для примера 0.8k*0.8k*0.8k сколько надо ГБит/с? И что мы в нем увидим? Это кубик какого размера, чтобы картинка была более-менее отчетливая? 20*20*20 см? Думаю меньше.
Поэтому у нас пока за каждым честным 3D проектором или монитором будет стоять незаметно в сторонке очень мощный компьютер или картинка будет дерганная и низкого разрешения. Что собственно мы и наблюдаем.
2к*2к*2к*3байта = 22,9 ГБ для хранилища вокселей. Передавать достаточно только изменения сцены (фактически координаты полигонов и текстуру). Как сказано ранее, именно 3D проектор должен пересчитывать матрицу вокселей. Для текселей сейчас предел несколько сотен гигатекселей в секунду. То есть для призмы со стороной 2000 частота обновления действительно не более 10 кадров в секунду.
Однако уточним — что нам и не нужна призма. Достаточно экрана — каждая точка которого будет излучать ФАЗИРОВАННЫЙ свет. В этом случае получим цифровой вариант аналоговой «мнимой» голограммы.
Лет 10 назад японаты делали подобную штуку (аквариум с рыбками :). Но тогда честно говоря не впечатлило.
Однако уточним — что нам и не нужна призма. Достаточно экрана — каждая точка которого будет излучать ФАЗИРОВАННЫЙ свет. В этом случае получим цифровой вариант аналоговой «мнимой» голограммы.
Лет 10 назад японаты делали подобную штуку (аквариум с рыбками :). Но тогда честно говоря не впечатлило.
Да не уловка, как вы понять не можете)
Если вы рассчитываете принадлежность точки плоскости в реалтайме, вы не передаете этих объемов данных. Ни от компьютера устройству вывода, ни внутри устройства вывода. Вы в каждый момент времени работаете с одной точкой.
У вас что-то вроде прерывания: «сейчас выводится точка с координатами Х,Y,Z — надо ее выводить?» — и решение о том, надо ее выводить или нет, это не предзаписанный огромный объем информации (индивидуальный для каждой точке), а один блок кода, который это на ходу вычисляет, одинаковый для всех точек.
Если вам так проще, то представьте эту задачу в 2д — тогда она будет звучать как «зажигаем все точки плоскости, попадающие в замкнутые контуры», допустим.
Чтобы ее решить вам уже не нужно гнать в сыром виде все 800х600 точек. Вы передаете точки полигонов системе вывода. В процессе вывода графики (по тактовым импульсам VGA) вы каждый раз выполняете код
Если(ТочкаПринадлежитКонтуру(X,Y,Z))
Выдать на затвор транзистора 1
иначе
Выдать на затвор транзистора 0
Если вы рассчитываете принадлежность точки плоскости в реалтайме, вы не передаете этих объемов данных. Ни от компьютера устройству вывода, ни внутри устройства вывода. Вы в каждый момент времени работаете с одной точкой.
У вас что-то вроде прерывания: «сейчас выводится точка с координатами Х,Y,Z — надо ее выводить?» — и решение о том, надо ее выводить или нет, это не предзаписанный огромный объем информации (индивидуальный для каждой точке), а один блок кода, который это на ходу вычисляет, одинаковый для всех точек.
Если вам так проще, то представьте эту задачу в 2д — тогда она будет звучать как «зажигаем все точки плоскости, попадающие в замкнутые контуры», допустим.
Чтобы ее решить вам уже не нужно гнать в сыром виде все 800х600 точек. Вы передаете точки полигонов системе вывода. В процессе вывода графики (по тактовым импульсам VGA) вы каждый раз выполняете код
Если(ТочкаПринадлежитКонтуру(X,Y,Z))
Выдать на затвор транзистора 1
иначе
Выдать на затвор транзистора 0
И вот опять, добрались до самого интересного места и? Как монитор узнает, что именно с вот этой конкретной точкой делать? Как до него это знание доходит? Нет у монитора никаких прямоугольников. Нет. Они есть в видеокарте.
Вы все никак эту концепцию принять не хотите)
Видимо, больше тут говорить не о чем.
Видеокарта это устройство вывода *двумерного* изображения. Почему вы упорно продолжаете думать категориями видеокарт, заточенных на 2Д? Если уж хотите думать о наших видеокартах, думайте о том, как на нее 3D выводят. А 3Д выводят полигонами.
Вы понимаете разницу между случаем устройство 2Д вывода --вычислитель, преобразующий 3Д данные в данные для устройства 2Д вывода — источник 3Д данных
и случаем устройство 3Д-вывода — источник 3Д данных?
Видеокарта сейчас нужна чтобы сгенерировать синхросигналы устройству 2Д вывода и передать туда данные в том формате, в котором оно их понимает — это 2Д точки. Когда будут 3Д мониторы не нужен будет дополнительный преобразователь. У вас будут данные 3Д в источнике и устройство для вывода 3Д информации.
Ваш вопрос «как монитор узнает, что именно с вот этой конкретной точкой делать» лишен смысла. Узнает он из 3D данных — данных о сцене.
И при выводе каждой точки динамически рассчитает, «зажигать» ее или нет.
Динамически, понимаете? Не перегоняя и не сохраняя данные обо всех точках, их не будет вообще нигде, физически не будут они хранится при такой реализации.
Извне передали 8 точек, которые образуют куб, при отрисовке для каждой из IxJxK точек будет вычислено зажигать ее или нет — в момент непосредственно предшествующий выводу.
Вы так рьяно отбрыкиваетесь и не хотите эту концепцию принять потому, что привычный вам 2Д монитор не проводит пост-обработку данных — не требуется это. При реализации 3Д потребуется. Ну или — вам на радость — если к тому времени пропускной способности интерфейсов будет хватать и не захотят делать динамический расчет, будут гонять ваши голые воксели.
Я же не говорю что это единственный вариант реализации — просто он самый разумный, когда ограничены пропускной способностью.
Кстати, судя по размеру точек, которые этот экран сейчас выдает 800х800х800 будет огромным кубом, у него размер вокселя, с виду, около кубического сантиметра.
Видимо, больше тут говорить не о чем.
Видеокарта это устройство вывода *двумерного* изображения. Почему вы упорно продолжаете думать категориями видеокарт, заточенных на 2Д? Если уж хотите думать о наших видеокартах, думайте о том, как на нее 3D выводят. А 3Д выводят полигонами.
Вы понимаете разницу между случаем устройство 2Д вывода --вычислитель, преобразующий 3Д данные в данные для устройства 2Д вывода — источник 3Д данных
и случаем устройство 3Д-вывода — источник 3Д данных?
Видеокарта сейчас нужна чтобы сгенерировать синхросигналы устройству 2Д вывода и передать туда данные в том формате, в котором оно их понимает — это 2Д точки. Когда будут 3Д мониторы не нужен будет дополнительный преобразователь. У вас будут данные 3Д в источнике и устройство для вывода 3Д информации.
Ваш вопрос «как монитор узнает, что именно с вот этой конкретной точкой делать» лишен смысла. Узнает он из 3D данных — данных о сцене.
И при выводе каждой точки динамически рассчитает, «зажигать» ее или нет.
Динамически, понимаете? Не перегоняя и не сохраняя данные обо всех точках, их не будет вообще нигде, физически не будут они хранится при такой реализации.
Извне передали 8 точек, которые образуют куб, при отрисовке для каждой из IxJxK точек будет вычислено зажигать ее или нет — в момент непосредственно предшествующий выводу.
Вы так рьяно отбрыкиваетесь и не хотите эту концепцию принять потому, что привычный вам 2Д монитор не проводит пост-обработку данных — не требуется это. При реализации 3Д потребуется. Ну или — вам на радость — если к тому времени пропускной способности интерфейсов будет хватать и не захотят делать динамический расчет, будут гонять ваши голые воксели.
Я же не говорю что это единственный вариант реализации — просто он самый разумный, когда ограничены пропускной способностью.
Кстати, судя по размеру точек, которые этот экран сейчас выдает 800х800х800 будет огромным кубом, у него размер вокселя, с виду, около кубического сантиметра.
Мне отлично понятна ваша концепция кроме одного момента — самого последнего этапа. Это отлично работает в случае привычных вам видеокарт — все, что происходит за разъемом DVI не наша забота. Вы прекрасно описали как это должно работать — понимаю, в этом нет ничего сложного, я сам так с радостью бы сделал. Красиво выглядит. Теперь представьте это-же «в железе». Протяните «проводки» от каждой ячейки памяти к реальным физическим устройствам, которые это исполнят в реальном мире, а не в памяти. Отобразят это для нашего зрения.
Ох, да нет тут «проводков от ячеек памяти». Луч движется с определенной скоростью, последовательно проходя все точки, как и в старых мониторах или аналоговых осциллографах, которые вам, кстати, в пример приводили уже.
Вот пришел первый синхроимпульс, луч пока в нерабочей зоне, в наших регистрах X, Y, Z = 0,0,0. И у нас есть время пока луч не войдет в зону первого вокселя для вычисления f({X,Y,Z}, {P1,P2,..,Pn}), где P1,..,Pn — точки 3D сцены, которые нам передали. Вычислили эту функцию. Луч все движется, вот он прошел нерабочую зону, приходит тактовый импульс (как в VGA) — если f = 1 — мы по «проводку» тянущемуся к фокусирующей системе и передаем 1. Фокусировка включена, точка «горит». Если 0 — не горит.
Все, подали это значение, лазер греет воздух в этой точке, или не греет, а у нас есть время до следующего такта чтобы прибавить к Х единичку и перевычислить f для следующей точки. Перевычисляем. Приходит тактовый импульс, обозначающий, что лазер сместился к следующему вокселю. Зажигаем его (либо не зажигаем) в зависимости от f.
И так поступаем на протяжении всего времени работы.
Это типичная схема работы VGA, только в 3D.
Вы забываете что «проводки от ячеек памяти» есть только в LCD мониторах, в CRT их и в помине не было, там вообще никакой памяти не было. Был луч, непрерывно двигающийся по экрану.
Вот пришел первый синхроимпульс, луч пока в нерабочей зоне, в наших регистрах X, Y, Z = 0,0,0. И у нас есть время пока луч не войдет в зону первого вокселя для вычисления f({X,Y,Z}, {P1,P2,..,Pn}), где P1,..,Pn — точки 3D сцены, которые нам передали. Вычислили эту функцию. Луч все движется, вот он прошел нерабочую зону, приходит тактовый импульс (как в VGA) — если f = 1 — мы по «проводку» тянущемуся к фокусирующей системе и передаем 1. Фокусировка включена, точка «горит». Если 0 — не горит.
Все, подали это значение, лазер греет воздух в этой точке, или не греет, а у нас есть время до следующего такта чтобы прибавить к Х единичку и перевычислить f для следующей точки. Перевычисляем. Приходит тактовый импульс, обозначающий, что лазер сместился к следующему вокселю. Зажигаем его (либо не зажигаем) в зависимости от f.
И так поступаем на протяжении всего времени работы.
Это типичная схема работы VGA, только в 3D.
Вы забываете что «проводки от ячеек памяти» есть только в LCD мониторах, в CRT их и в помине не было, там вообще никакой памяти не было. Был луч, непрерывно двигающийся по экрану.
И так 500 миллионов раз на 30 раз в секунду. Никаких проблем. Ok.
Одно другого не лучше — или много физических пикселей или много движений луча, который их в объеме будет зажигать последовательно.
Короче я пошел.
ps. На CRT был ЦАП. Преобразование в физическое отображение начиналось чуть раньше, чем у LCD. Не более того.
Одно другого не лучше — или много физических пикселей или много движений луча, который их в объеме будет зажигать последовательно.
Короче я пошел.
ps. На CRT был ЦАП. Преобразование в физическое отображение начиналось чуть раньше, чем у LCD. Не более того.
Он сейчас так и работает, на этом видео. Я вам поэтому про такой подход и говорю, у них не сотни лазеров, по одному на воксель. У них в данный момент один, в крайнем случае — несколько, лазеров, рисующих в воздухе картинку перемещением луча. Из этого и вытекает такая реализация.
500 миллионов раз на 30 раз в секунду это 1.5 * 10 ГГц тактовая частота. Процесс параллелится элементарно, разбиваете на 10 лучей, получаете такт в 1.5 ГГц вполне достижимый сегодня.
Все равно не будут ставить 800х800х800 лазеров, по лазеру на точку, вместе с таким же количеством памяти.
Полагаю, лучшее к чему мы с вами пришли — это компромисс двух подходов. N лазеров, а дальше — как я и сказал, по тактовому сигналу просчитывать вывод.
500 миллионов раз на 30 раз в секунду это 1.5 * 10 ГГц тактовая частота. Процесс параллелится элементарно, разбиваете на 10 лучей, получаете такт в 1.5 ГГц вполне достижимый сегодня.
Все равно не будут ставить 800х800х800 лазеров, по лазеру на точку, вместе с таким же количеством памяти.
Полагаю, лучшее к чему мы с вами пришли — это компромисс двух подходов. N лазеров, а дальше — как я и сказал, по тактовому сигналу просчитывать вывод.
Я не обсуждал конкретную реализацию. Но пусть будут лазеры. Пусть даже нам надо зажигать только 30% «пикселей» — в остальном объеме не происходит изменений. Пусть даже «пиксели» раз зажженные продолжают светиться пока их не погасят.
Но работа с такими тру 3D экранами — это переход на качественно другой уровень.
Но работа с такими тру 3D экранами — это переход на качественно другой уровень.
Вспомните Doom, его называли 2.5D, так как там была только высота как третья координата. Вот тут также ваше устройство будет рисовать не полноценный объект со всеми внутренностями, а только поверхность, и пик елей понадобится гораздо меньше.
Да, только монитор у нас в итоге получал все тот-же массив 640*480. Doom там был или Принц Персии. Для процессора задача усложнялась, для ЦАП видеокарты и монитора нет.
Тут ситуация другая.
Тут ситуация другая.
Ситуация действительно другая. 3D монитор — это не аналог современного монитора, а аналог виртуального 3D-принтера. Там точек в объеме тоже очень много, однако принтер позволяет экономить время и материал за счет того, что делает модель полой и не печатает пустых вокселей — вполне себе аналоговая аналогия 3D-монитора.
Со всех возможных обсчитывать не надо, достаточно просто отключить алгоритм отсечения невидимых полигонов и все необходимые данные для формирования 3D со всех ракурсов уже готовы
Согласен, именно по этому я ухожу от обсуждения этих вопросов. Меня интересует вопрос, что делать после. Я говорю про то, что попадало раньше на ЦАП, сейчас уходит на схему управления матрицей в мониторе по DVI или HDMI (а это до 10 Гбит/с кстати).
Я не обсуждаю то, как подготовить информацию о 3D сцене. Я обращаю внимание на то, что её надо передать и отобразить. Еще раз — с точки зрения монитора не важно — даже если пиксель внутри объекта — это всеравно состояние, о котором схеме управления пикселем надо сообщить.
Ваш LCD монитор по DVI даже при полной заливке черным экрана всеравно получает с видеокарты информацию о состоянии каждого пикселя на экране!
Я не обсуждаю то, как подготовить информацию о 3D сцене. Я обращаю внимание на то, что её надо передать и отобразить. Еще раз — с точки зрения монитора не важно — даже если пиксель внутри объекта — это всеравно состояние, о котором схеме управления пикселем надо сообщить.
Ваш LCD монитор по DVI даже при полной заливке черным экрана всеравно получает с видеокарты информацию о состоянии каждого пикселя на экране!
Согласен, но давайте упростим ситуацию. Обычно в большинстве 3D-сцен много пустого пространства.
Так давайте же передавать не все-все воксели, а только поверхности объектов и последовательно по поверхностям их рисовать. В этом случае нам нужно пространство заполненное люминофором и уже записанный алгоритм формирования поверхностей, типа сместится в центр нарисовать поверхность куба, подняться на 10 см выше нарисовать поверхность сферы. Вот в этом случае нам нужно передавать гораздо меньше информации, при этом такая информация может быть заранее записана на магнитную ленту и растиражированна.
Примерно так же устроен осциллограф. В отличие от обычного ЭЛТ монитора изображение не растровое, а векторное.
По сути наше с вами спор состоит в том, что вы говорите, что надо передавать «объёмный растр» и пропускной способности не хватит. А мы, соглашаясь с вами, говорим, что будут передавать «объёмный вектор» и пропускной способности хватит.
Так давайте же передавать не все-все воксели, а только поверхности объектов и последовательно по поверхностям их рисовать. В этом случае нам нужно пространство заполненное люминофором и уже записанный алгоритм формирования поверхностей, типа сместится в центр нарисовать поверхность куба, подняться на 10 см выше нарисовать поверхность сферы. Вот в этом случае нам нужно передавать гораздо меньше информации, при этом такая информация может быть заранее записана на магнитную ленту и растиражированна.
Примерно так же устроен осциллограф. В отличие от обычного ЭЛТ монитора изображение не растровое, а векторное.
По сути наше с вами спор состоит в том, что вы говорите, что надо передавать «объёмный растр» и пропускной способности не хватит. А мы, соглашаясь с вами, говорим, что будут передавать «объёмный вектор» и пропускной способности хватит.
Всетаки от векторных мониторов ушли к растровым, а не наоборот. Как только позволил вычислительный ресурс. А векторная графика никогда не заменяла собой растровую.
"уже записанный алгоритм формирования поверхностей, типа сместится в центр нарисовать поверхность куба, подняться на 10 см выше нарисовать" это опять попытка "ну там монитор сам разберется" :-) Это самое «нарисовать» и есть переход к полному разрешению нашего монитора.
"уже записанный алгоритм формирования поверхностей, типа сместится в центр нарисовать поверхность куба, подняться на 10 см выше нарисовать" это опять попытка "ну там монитор сам разберется" :-) Это самое «нарисовать» и есть переход к полному разрешению нашего монитора.
Мониторы нынче растровые, но мало что мешает делать 3D-мониторы «векторными» — чтобы они не тупо модулировали матрицей памяти яркость лучей всегда одной и той же полной развёртки, а управляли ещё и самой развёрткой, посылая луч только туда, где надо светить. Так 3D-картинка сожмётся, и не будет занимать гигабайты памяти и их пересылать в луч даже на последнем этапе…
UPD: Гы. Занятно, тут соседним комментом уже про векторность написали, и даже на осцилограф сослались как на векторный 2D-монитор :)
UPD: Гы. Занятно, тут соседним комментом уже про векторность написали, и даже на осцилограф сослались как на векторный 2D-монитор :)
Вот ещё разновидность просветной псевдоголограммы: fVisiOn.
Принцип действия — под столом находится круговой проектор, показывающий картинки для нескольких углов обзора.
У смотрящего создаётся иллюзия объёмного изображения.
Принцип действия — под столом находится круговой проектор, показывающий картинки для нескольких углов обзора.
У смотрящего создаётся иллюзия объёмного изображения.
Да, принцип отображения такой же, видимо — игрушка ещё 3D Mirascope называется, только они придумали, как это сделать с помощью проектора.
Кстати, картинка неправильная — предмет не будет выступать за пределы отверстия — это видно на видео. :)
(Для наглядности сделали, как на рекламных картинках с 3D мониторами).
Кстати, картинка неправильная — предмет не будет выступать за пределы отверстия — это видно на видео. :)
(Для наглядности сделали, как на рекламных картинках с 3D мониторами).
В руках не держал но думаю что выступать будет, но в пределах «дырки». Фото видимо больше рекламное. Но лучшее из того что нашел за 5 минут. Каюсь.
Да что Вы, я же не в укор. :)
Это просто рекламный ход, чтобы показать, что предмет объёмный, такое сейчас на каждом шагу.
Именно так, выступает в пределах дырки — то же самое и у fVisiOn.
Это просто рекламный ход, чтобы показать, что предмет объёмный, такое сейчас на каждом шагу.
Именно так, выступает в пределах дырки — то же самое и у fVisiOn.
С зеркалом опасная штуковина.
А откуда стереоэффект в фокусе с плёнками и пирамидками?
Или его там и нету?
Или его там и нету?
Когда-то давно видел как проецируется видео на быстро вращающуюся рамку. Рамка очень тонкая и вращается очень быстро, от этого ее практически не видно даже с близкого расстояния
последнее видео демонстрирует принципы визуализации НЛО ) видел вживую — очень похоже
Вот еще применение водного тумана в голографии на открытии фонтана в Виннице
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Технологии экранов псевдоголографии