Судя по описанию (на Гитхабе и Вашем), OS Inferno — это все же не «распределенная», а «распространяемая» ОС.
В российской IT-традиции «распределенными» называют системы, работающие одновременно на нескольких узлах, с потенциальной возможностью одновременной обработки одного набора данных и, в современных ипостасях, даже прозрачного переноса уже запущенных процессов на другие хосты (как, например, в Cluster Server).
А Инферно все же это «обычная» виртуальная машина, причем не интегрированная в ОС. Что-то среднее между VirtualBox и JVM. Неплохая, но все же пока «вторичная», как разные веб-ОС поверх Javascript в браузере.
Ну так я и прошу сделать мне тысячу независимых ARM-ядер вместо скалярных чипов в решениях NVidia и ATI.
Сейчас я могу только вектор одновременно обсчитывать (математически), с ветвлениями — уже практически невозможно. А я хочу тысячу независимых потоков выполняемых параллельно!
А я бы не отказался от GPU на ARM-ных ядрах, пусть и самых примитивных (вроде v3), вместо этих безумных GeForce.
Представляете 1536 (GF680) универсальных ядер и у каждого свой мегабайт изолированной памяти?
Бойтесь все — я с гридом иду!
Указанные ограничения (максимальные значения памяти и жестких дисков) взяты из технических характеристик для Mac Pro.
Понятно, что можно попытаться поставить и больше, или, например 24е 256Гб SSD (6 ТБ), чтобы «сделать всё гораздо быстрее», но это будет уже на Mac — «полностью совместимый и надежно работающий»
Думается, проблема «застоя» начинки минимальной версии — в возможностях платформы в целом.
Посмотрите на возможный максимум оснащения: 2 шестиядерных Xeon, 32 Гб (было 16) RAM, 8 ТБ (4x2 ТБ) HDD — это практический предел для настольной Intel-платформы. Минимальная конфигурация должна быть дешевле и «слабее», но выбирать-то не из чего.
Apple могла только улучшить видеоподсистему и добавить портов. Хотя поддержка 6 мониторов, 5 USB (в базе), 4 FW — чего же еще можно пожелать для периферии?
TB и «новый дизайн»? Бросьте, пока нет еще достаточного количества «хорошей» (профессиональной) периферии, а дизайн — следствие функциональности. Вопросы шума и энергопотребления еще никто не отменял.
Плюс нужно помнить о «единой» операционной системе для всех компьютеров Apple:
Ну соберете Вы «числодробилку» внутри Pro'шки, но что Вы с ней будете делать, кому она будет нужна?
Звукооператору? Нет.
Художнику? Нет.
Аниматору? Сомневаюсь. Рендер фильма все равно делать на отдельной ферме, а ролик на 5 минут можно и на Ксеоне сделать за ночь.
Очень подробное руководство, можно уже давать студентам, спасибо.
Особенно понравились вставки «зачем» выполняется конкретная команда, не в плане «Эта команда означает...», а «Я, обычно, не настраиваю раздел swap, потому что и без него 4 ГБ ОЗУ хватает, но если нужно, то сделайте так...» (цитата не точная, конечно).
(Мечтательно) Хорошо бы эту статью переработать в вариант «книжка-игра» с внутренними переходами, для настройки наиболее типичных применений Ubuntu — NAS, веб-сервер, Java-сервер, север базы данных, терминальный сервер, сервер видеонаблюдения и так далее.
Я бы взял как концентратор различных медиапотоков (видео с камер собирать и кодировать, исполнительными механизмами управлять и все такое). Все таки процессор x86 — софт собирать и писать для него намного привычнее.
А если таки будет аккумулятор хотя бы часа на два, то вообще домашние системы безопасности можно строить. Все-таки неттопы для такой задачи великоваты.
> Прямо как студент «плывущий» на зачете.
Это Вы про себя? Или просите лекцию Вам прочитать про принцип дифракции и дифракционные картинки?
Не хочется, прямо скажу…
И, конечно, проблема когерентной подсветки она была, есть и будет камнем преткновения широкого распространения голографии, но современные голограммы видно и при дневном свете.
А Вы видите какие-нибудь препятствия к использованию OLED, чтобы выводит фазовую плоскость? Ведь нам же важна рассчитанная (в соответствии с принципом суперпозиции) яркость изображения от «имитируемых» объектов: «Из каждой точки объекта испускаются несколько лучей, которые разными путями достигают плоскости проекции, сдвиг фазы определяет...» — помните волновую оптику?
Единственная проблема — это прозрачность элементов экрана. Если светопропускание «прозрачного» OLED-экрана не будет зависеть от собственной светимости пикселей, то схема должна работать.
В принципе, все равно. Зависит только от количества «финальных» источников света, т.е. 3D-пикселей.
От каждого из них нужно рассчитать сдвиг фазы светового луча, приходящего на каждый пиксель, а затем сложить с другими лучами.
Правда для TFT, этот метод может не сработать (на просвет), а вот с OLED (светящимися) — должен.
На самом деле две HD камеры лучше — можно реализовать аппаратный процессинг разницы изображений и воспроизвести какое-то подобие Kinect (на базе эффекта параллакса).
Дело как раз в размере (а значит и весе) системы.
Самый оптимальный для компоновки вариант — «прозрачный» TFT вместо линзы очков. Это обеспечит минимальный вес конструкции, так как видеопроцессор можно спрятать в дужку очков, а сигнал передавать по WiFi. Экран без подсветки сможет питаться от часовой батарейки достаточно долго.
Но глаз не сможет сфокусироваться на таком изображении (нужен хотя бы десяток сантиметров). А вот голограмма (фазовая картинка рассчитанная именно для данного случая) будет восприниматься верно.
> либо аккумулятор выносить за пределы очков, как самое тяжелое, либо переходить к шлемовому ношению
Так ведь аккумулятор и так высенен «за пределы». Он в модуле управления. Примерно как в случае с «обычными» наушниками. Проблема именно в оптике — невозможно пока сделать проекционный дисплей достаточно компактным — это фундаментальная проблема фокусировки глаза (12 см — минимальное расстояние до дисплея, что «по прямой», что через призму, как в BT-100).
Единственный вариант «суперкомпактного» прозрачного дисплея, который физически сможет работать в габаритах «обычной линзы», это вывоз фазовой картинки светового фронта. Мы делали такую оценку — нужны петафлопы даже для 320 на 240 — потому, что это фактически RayTracind для каждой точки дисплея (в реальном времени).
Ага, значит понадобится две камеры, чтобы реализовать дополненную реальность (на основе маркеров).
Или попробовать приспособить Kinect. Хотя он даже без корпуса великоват.
Подключение гироскопа на базе Arduino — инструкций множество. Значит, приспособить его не проблема.
Итого, проблема только в вычислительном блоке, без «компьютерного» блока не обойтись. Что то в духе PsiXpda.
Не смог найти в технических характеристиках — в очках два независимых экрана, или просто используется какая-нибудь оптическая схема?
Если экрана два (физически) — они независимы? Можно ли выводит разные изображения?
Очень хочется получить возможность стереозрения.
В российской IT-традиции «распределенными» называют системы, работающие одновременно на нескольких узлах, с потенциальной возможностью одновременной обработки одного набора данных и, в современных ипостасях, даже прозрачного переноса уже запущенных процессов на другие хосты (как, например, в Cluster Server).
А Инферно все же это «обычная» виртуальная машина, причем не интегрированная в ОС. Что-то среднее между VirtualBox и JVM. Неплохая, но все же пока «вторичная», как разные веб-ОС поверх Javascript в браузере.
Судя по нему, полтора коробка спичек в длину выходит (а ширина и высота как у коробка, как раз).
Сейчас я могу только вектор одновременно обсчитывать (математически), с ветвлениями — уже практически невозможно. А я хочу тысячу независимых потоков выполняемых параллельно!
Например, для семантического поиска
Представляете 1536 (GF680) универсальных ядер и у каждого свой мегабайт изолированной памяти?
Бойтесь все — я с гридом иду!
Понятно, что можно попытаться поставить и больше, или, например 24е 256Гб SSD (6 ТБ), чтобы «сделать всё гораздо быстрее», но это будет уже на Mac — «полностью совместимый и надежно работающий»
Посмотрите на возможный максимум оснащения: 2 шестиядерных Xeon, 32 Гб (было 16) RAM, 8 ТБ (4x2 ТБ) HDD — это практический предел для настольной Intel-платформы. Минимальная конфигурация должна быть дешевле и «слабее», но выбирать-то не из чего.
Apple могла только улучшить видеоподсистему и добавить портов. Хотя поддержка 6 мониторов, 5 USB (в базе), 4 FW — чего же еще можно пожелать для периферии?
TB и «новый дизайн»? Бросьте, пока нет еще достаточного количества «хорошей» (профессиональной) периферии, а дизайн — следствие функциональности. Вопросы шума и энергопотребления еще никто не отменял.
Плюс нужно помнить о «единой» операционной системе для всех компьютеров Apple:
Ну соберете Вы «числодробилку» внутри Pro'шки, но что Вы с ней будете делать, кому она будет нужна?
Звукооператору? Нет.
Художнику? Нет.
Аниматору? Сомневаюсь. Рендер фильма все равно делать на отдельной ферме, а ролик на 5 минут можно и на Ксеоне сделать за ночь.
Особенно понравились вставки «зачем» выполняется конкретная команда, не в плане «Эта команда означает...», а «Я, обычно, не настраиваю раздел swap, потому что и без него 4 ГБ ОЗУ хватает, но если нужно, то сделайте так...» (цитата не точная, конечно).
(Мечтательно) Хорошо бы эту статью переработать в вариант «книжка-игра» с внутренними переходами, для настройки наиболее типичных применений Ubuntu — NAS, веб-сервер, Java-сервер, север базы данных, терминальный сервер, сервер видеонаблюдения и так далее.
А если таки будет аккумулятор хотя бы часа на два, то вообще домашние системы безопасности можно строить. Все-таки неттопы для такой задачи великоваты.
Это Вы про себя? Или просите лекцию Вам прочитать про принцип дифракции и дифракционные картинки?
Не хочется, прямо скажу…
И, конечно, проблема когерентной подсветки она была, есть и будет камнем преткновения широкого распространения голографии, но современные голограммы видно и при дневном свете.
Единственная проблема — это прозрачность элементов экрана. Если светопропускание «прозрачного» OLED-экрана не будет зависеть от собственной светимости пикселей, то схема должна работать.
Проблема, как водится, в цене, размерах и массе. Ну и в долговечности.
От каждого из них нужно рассчитать сдвиг фазы светового луча, приходящего на каждый пиксель, а затем сложить с другими лучами.
Правда для TFT, этот метод может не сработать (на просвет), а вот с OLED (светящимися) — должен.
Самый оптимальный для компоновки вариант — «прозрачный» TFT вместо линзы очков. Это обеспечит минимальный вес конструкции, так как видеопроцессор можно спрятать в дужку очков, а сигнал передавать по WiFi. Экран без подсветки сможет питаться от часовой батарейки достаточно долго.
Но глаз не сможет сфокусироваться на таком изображении (нужен хотя бы десяток сантиметров). А вот голограмма (фазовая картинка рассчитанная именно для данного случая) будет восприниматься верно.
Так ведь аккумулятор и так высенен «за пределы». Он в модуле управления. Примерно как в случае с «обычными» наушниками. Проблема именно в оптике — невозможно пока сделать проекционный дисплей достаточно компактным — это фундаментальная проблема фокусировки глаза (12 см — минимальное расстояние до дисплея, что «по прямой», что через призму, как в BT-100).
Единственный вариант «суперкомпактного» прозрачного дисплея, который физически сможет работать в габаритах «обычной линзы», это вывоз фазовой картинки светового фронта. Мы делали такую оценку — нужны петафлопы даже для 320 на 240 — потому, что это фактически RayTracind для каждой точки дисплея (в реальном времени).
Ага, значит понадобится две камеры, чтобы реализовать дополненную реальность (на основе маркеров).
Или попробовать приспособить Kinect. Хотя он даже без корпуса великоват.
Подключение гироскопа на базе Arduino — инструкций множество. Значит, приспособить его не проблема.
Итого, проблема только в вычислительном блоке, без «компьютерного» блока не обойтись. Что то в духе PsiXpda.
Если экрана два (физически) — они независимы? Можно ли выводит разные изображения?
Очень хочется получить возможность стереозрения.