Замер контраста (контрастный автофокус) это в мыльницах в основном используют, сейчас в зеркалках используют так называемый фазовый автофокус. Но в целом да, его качество оставляет желать лучшего, особенно в условиях недостаточной освещенности.
Точность работы первого варианта (пол диоптрии) весьма сомнительна (а если делать многоитерационный, то получиться стандартный автофокус по контрасту с чуть более быстрой сходимостью). Второе чуть более интересно, но в хороших объективах хроматики и астигматизма практически нет. Их туда специально вводить?)
Читал с упоением! Вообще изучение алгоритмов обработки информации человеком очень интересна. Кстати, если запрограммировать грамотно данную модель и объединить с библиотекой алгоритмов компьютерного зрения (OpenCV), то можно уже создать довольно интересного робота!
>> Получая расплывчатую картинку, мозг мгновенно распознаёт дистанцию до объекта и изменяет фокусное расстояние — кривизну хрусталика, чтобы получить чёткое изображение на сетчатке.
Ээххх… уже давно нечёткое, где мои очки? :-(
Придумали бы ещё что-нибудь для регенерации и восстановления подвижности глазных мышц.
с лазером они переборщили. со сих пор все смерти были в рамках допустимого, если бы не идиотская лазерная коррекция зрения. хотя нет, жаренные сиськи тоже не лезут ни в какие ворота.
Как где-то писали, «применение любого электричества выше пояса чревато повреждениями, несовместимыми с жизнью». Иными словами, любой медицинский прибор, использующий электричество, вряд ли будет допущен к использованию за пределами клиники. А если и появится такой прибор, тут же появятся «гарантированно помогающие» копии, сделанные в Китае. Или в соседнем подвале.
Сегодня точность AF во многом зависят от железа(более светосильные объективы лучше, более быстрые процессоры лучше, USM привод лучше), среды(больше света — лучше), объекта съемки (чем менее зеркальный объект — тем лучше) и его положения (90 град к оси объектива лучше). Как было бы здорово если оптика будущего смогла бы навестить без ошибок на черную зеркальную поверхность в полумраке под углом к объективу в 45 градусов — взял бы две!
Всегда был уверен, что объемное изображение формируется в мозгу за счет стерео (два глаза, два). А эта статья заронила сомнение: что там про позитивное влияние астигматизма? При астигматизме изображение двоится, а зная устройство сетчатки, могу себе представить, что обраруживать задвоившийся паттерн на порядок проще, чем городить стерео-зрение. Надо попробовать поснимать с астигматической линзой и получить карту расстояний из картинки!
Если получится что-то дельное — оформляйте пост! Давно жду подобной технологии, в теории это сильно облегчит процесс фотомонтажа (наличие канала глубины, снятого с одного шота). Пробовал получить глубину из стереоснимка, но безуспешно. Думаю, из снимка камеры светового поля такую инфу можно вытащить, но пока такие камеры не продаются массово :)
Из стереоснимка уже давно получают отличные карты глубин. Есть даже чарт разных алгоритмов (сравнивают их прближение к идеалу) vision.middlebury.edu/stereo/eval/
Ух ты!
А существуют готовые решения? Которые не программист сможет самостоятельно установить и получить готовый результат? Я нашёл только упоминание о StereoMatcher, существующем в виде исходников (что для меня, всё равно, что ничего).
это временный эффект. мозг «по старой памяти» формирует объемное изображение, если с закрытым глазом войти в незнакомое помещение, то мир «потеряет» объем
В Lumix G-серии уже что-то такое внедрили, что работает почти в темноте и со скоростью на глаз неотличимую от фазового автофокуса. Интересно, там есть что-то похожее.
Там Canon даже не пытается фокусироваться — слишком темно, при этом, имея объектив значительно лучше. Более того, алгоритм все-таки не в объективе, а в процеесоре камеры ;)
Мне тоже так почему-то кажется. Смотришь вдаль — и уже когда поворачиваешь глаз, мозг, зная что объект далекий, создает соответствующее фокусное расстояние. Тоже самое и с ближними предметами. Ведь если пристально смотреть на горизонт, то врядли мгновенно сфокусируешься на каком-то объекте, который внезапно появился поблизости. Его замечаешь — и только тогда, наполовину подсознательно, вычислив расстояние до него, производишь фокусировку.
Ну а карта «фокусное расстояние — расстояние до объекта» может быть заложена в генах миллионами лет эволюции :)
Конечно, наверняка куча всего учитывается, причем большая часть на подсознательном уровне. Движущиеся предметы. Предметы, представляющие потенциальную опасность. Эффект узнавания знакомого человека в толпе — тоже будто зумом выхватываешь моментально… Да тут и смысла нет сравнивать. Мозг — в принципе мощнейшая вычислительная машина, и «мозги» фотоаппарата с ним не сравнятся даже в отдельно взятой функции.
Да… фотоаппарат подобно глазу теряет свою «мощность» со временем… как портится картинка у человека, у фотоаппарата выгорает матрица) жалко только глаза не поменяешь
Помоему тут дело не в координации, а в том, что мозг может дорисовать картинку, даже не имея полных реальных данных, при ловле комаров разница между реальной и дорисованной картинкой проявляется. Еще всякие иллюзии этот пример демонстрируют — когда ваш мозг дорисовывает всякие врашяюшиеся шестеренки, которых нет:
Так что 2 глаза полюбому лучше, больше данных, меньше додумывания в бэкграунде.
У меня так же. Видимо, мозг при совмещении картинки с двух глаз больше данных об объектах получает, чем при рассмотрении одним глазом, и таким образом картинку «улучшает».
Тут вообще механизм на порядок сложнее, чем в фотоаппарате. То, что мы в итоге «видим» — это не просто некое изображение, которое передалось через сетчатку глаза, а именно то, что нам нарисовал мозг на основе этих данных. Иногда он рисует не совсем то, что есть. Или вообще то, чего нет. Галлюцинации, например.))
Кстати, забыли упомянуть, что у человека, все-таки, 2 глаза, поэтому, когда мозг принимает решение, в какую сторону подфокусироваться, он руководствуется примерным расстоянием до объекта (а оно, соответственно, определяется углом между осями глаз).
А математических методов фокусировки для одного объектива, конечно, полным-полно. Вот только нет ни одного, позволяющего точно сказать, в какую сторону надо вращать лимб фокусировки.
Я сам возился некоторое время с алгоритмами, выбрал (как наиболее точный) метод сравнения коэффициентов вейвлет-разложения (Хаар) в областях HH, HL, LH и LL. Скорость достаточна, для работы с веб-камерой на частоте 30кадров/с.
Вот только первоначальное направление вращения лимба все равно приходится угадывать (двинуть немного в одну сторону, измерить «коэффициент расфокусировки», если он улучшился — двигать в ту же, иначе — обратно).
Математическая модель работы автофокуса в глазу человека