«Начинающие», — это те, кто не знаком с цифрой. Я уже неоднократно видел как люди, снимающие на цифру и понявшие, что они не понимают в фотографии ничего, брали в руки Зенит… Лучше бы я это не видел. Они начинают снимать им как обычной цифрой. Делая по 10 кадров каждой травинки без сдвига положения камеры и не следя за освещением. Безусловно, если начинать снимать не с цифры, а с плёнки, не пожалеть на это год и суметь отснять хотя бы 20 плёнок, — то это будет отличная база для понимания того как устроена фотография и что можно интересно снимать. Но то же самое можно понять снимая цифрой, много эксперементируя, читая литературу и рассматривая классику. Сама по себе плёнка не сделает из вас более хорошего фотографа.
А смотреть на то, как очередной из знакомых выкладывает 30 фотографий, которые должны быть круты только потому что сняты «плёнкой» (при этом на них нет ни композиции ни сюжета, а только артефакты плёнки), это уже надоедает.
А если уж экспериментировать с плёнкой, то пара советов:
1) Возьмите нормальный плёночный фотоаппарат. Например Pentax-MZ. Стоить он будет не сильно дороже Зенита, а удовольствие куда больше. Не будет порванных плёнок, мороки с экспозамером и пыли в видоискателе и на плёнке.
2) От того, что фотография снята на плёнку 35мм она не становится лучше.
3) Если уж надумаете снимать плёнкой, то думайте над каждым кадром. Нажатие на спуск финально и обжалованию не подлежит.
4) С плёнки 35мм не будет большей чёткости, не будет большей глубины цвета, не будет большего динамического диапазона. До плёнки 35мм производители современной цифры уже дошли. Если хотите получить что-то более хорошее по качеству — используйте средний формат(его тоже можно найти и не сильно дороже) или хотя бы слайдовую плёнку.
«для задачи выделить радужку» не плевать на пункт 1)
Там область в 90% сканеров — зарезанное лицо. И алгоритмы где лицо во главе угла не работают. Если есть полное лицо и кадр с высоким разрешением(это на видеокамеры не получить), то там всё равно совсем другие алгоритмы когда надо с точностью радужку выделить. Радужка, она далеко не круглая обычно. А предварительный поиск да, обычно через FaceDetect мы сначала делаем в таком случае.
Предварительное — это без проблем. Это даже в OpenCV есть. Вопрос именно в сравнивающих алгоритмах. А проектов, которые указывают ориентацию каждого глаза десятки, многие из них на openCV. Но тут есть пара моментов:
1) Для выделения глаз всем им нужно видеть полное лицо человека, а это значит что на глазу не будет достигатся хорошее разрешение.
2) Глаз выделяется очень примерно и направление берёться скорее по положению лица, чем по внутренней структуре глаза.
3) С веб-камер там очень высоки шумы алгоритма и флуктуации порядка +_10 градусов постоянны… На ютубе десятки примеров, сходу вот — www.youtube.com/watch?v=N_ZS9Zw3V9M&feature=related
В принципе эту технологию какой-то большой западный инситут пытается присобачить в машины, чтобы делать driver-assist (например знаки подсвечивать если водитель на них не обращает внимания), но у них уже лет 7 ничего не выходит дальше дикого прототипа. А они там используют даже глубокие ик-камеры, в которых зрачёк светит как новогодняя ёлка. Ссылку сейчас с ходу не найду, но на мембране точно было.
Да, распознавание по венам хорошо. Но есть пара моментов. Во-первых, отлаженное распознавание по радужке будет ни капли не дороже (оборудывание для сканеров там практически то же, а статистическая надёжность всё-же чуть выше). Во-вторых, это момент который умалчивают производители систем распознавания по венам: артрит и болезни иже с ним, а так же изменчивость этой характеристики с годами.
Спасибо)
То что есть множество других методов я в окрестности первой картинки обращал внимание, а так же на то, что я буду рассматривать только применимые в СКУД. Все остальные методы либо не достаточно скоростные на сегодня (на снятие характеристики требуется более десятка секунд), либо не достаточно надёжные. Например среди динамической биометрии самой надёжной считается распознавание по голосу, а оно хуже чем даже 2D распознавание по лицу.
Разные алгоритмы по разному. У нас в некоторых версиях он их выделял, в некоторых нет. В принципе это зависит от сканера радужки: есть ли там достаточное разрешение для выделения, насколько правильно расположена подсветка, насколько много вычислительных способностей у сканера. Например когда мы делали маленькое устройство c небольшой подсветкой на ARM9 DaVinci — мы отключали, а когда делали сканер USBшым для компа — включали. В принципе это не сильно статистику улучшает.
Можно, но это вопрос качества и стоимости получаемой системы (нужно добиться достаточного пространственного разрешения зрачка, отсутствия смаза итд).
Открытые проекты были какие-то (отдельные энтузиасты делали), но там на порядки хуже сегментация и предварительное выделение.
Акомодация компенсируется тем что радужная оболочка при аккомодации растягивается/сжимается, а следовательно вся информация всегда видна, её нужно соответственно растянуть/сжать. В принципе вот тут неплохо описан самый первый из используемых методов в этой тематике. Правда на английском.
В принципе по пальцам есть много фирм, которые ориентированы мультипратформенно. Это вам не повезло с выбором фирмы… А вообще если у вас на фирме несколько сотен сотрудников, то индентификация по пальцам уже с трудом покатила бы. Или вам нужна была верификация и аутентификация?
А вот не по пальцам там куда большие сложности. Практически все системы по 3д лицу или по глазам, кроме сканера, который будет стоить тыщи 2-3 долларов будут требовать закупки своих же серверов, которые обойдутся в сумму в несколько раз выше. Без них они просто не будут работать.
Полностью заменив имеющийся замок? Тогда, наверное, никакой:) В глаз может укусить пчела, а палец можно ободрать на улице.
Если же систему, дублированную нормальным ключом, то либо очень хороший сканер по пальцам (который соседские школьники не смогу обмануть), либо вены руки. Сканер радужки был бы предпочтительнее но пока что они все достаточно дорогие.
>P.S.
>В этом опусе я не вдавался в проблему аутентификации, а только затрагивал >идентификация. В принципе из характеристики FAR/FRR и возможности подделки все >выводы по вопросу аутентификации напрашиваются сами.
Спасибо, интересно почитать было. В принципе там основной вопрос это, конечно, точность получаемых показаний. Для грубой точности, сравнимой с 2d лицом их должно без особых проблем хватить, но что насколько сверху будет это непонятно.
В принципе диаметр радужки необходимый для распознавания на уровне алгоритма это 120 пикселей где-то. На 100-110 уже нестабильно работает всё.
А дальше это вопрос пляски с бубнами и сканера радужки. Если устраивает, чтобы человек остановился на месте и покрутил головой туда-сюда, то для одного глаза хватает разрешения 640*480, снятого с видео (но с нормальной линзой и подсветкой и без интерлайновой развёртки). В принципе систему с видео на 1 мегапиксель можно даже сделать удобной, перед которой практически тормозить не надо. В современных системах, таких как AOptix и SRI International по нашей оценке используется видеокамера для предварительной настройки и ~10 мегапиксельная камера для самой съёмки и дальнейшего распознавания. Так что используемое количество мегапикселей это только вопрос удобности системы для пользователей. Чем больше тем она будет удобнее. И дороже)
«вопрос о том, есть ли аппаратное ускорение встроенных функций или нет для меня все еще загадка, надо будет как-нибудь проверить будет»
Читая сайт www.cmsoft.com.br/ натыкался на утверждение (вроде даже с примером на котором оно проверялось) что у nativ функций есть аппаратное ускорение. Сам обычно их и стараюсь использовать…
Но то, что ввели трёхмерные вектора это конечно приятно.
Интересная статья! Обязательно пишите продолжение! Было бы очень приятно, если бы в дальнейшем были примеры с кодом, а повествование рассматривало и особенности AMD карт.
На мой взгляд, не смотря на всю эту проблематику — не всё так грустно. Конечно, для сложного кода построение программы усложняется на порядки по сравнению с CPU, но для простых операций (применить простой фильтр к изображению, произвести простые матричные расчёты) производительность может разогнать даже не специалист. При этом программа будет работать достаточно быстро и на Nvidia и на AMD.
А смотреть на то, как очередной из знакомых выкладывает 30 фотографий, которые должны быть круты только потому что сняты «плёнкой» (при этом на них нет ни композиции ни сюжета, а только артефакты плёнки), это уже надоедает.
А если уж экспериментировать с плёнкой, то пара советов:
1) Возьмите нормальный плёночный фотоаппарат. Например Pentax-MZ. Стоить он будет не сильно дороже Зенита, а удовольствие куда больше. Не будет порванных плёнок, мороки с экспозамером и пыли в видоискателе и на плёнке.
2) От того, что фотография снята на плёнку 35мм она не становится лучше.
3) Если уж надумаете снимать плёнкой, то думайте над каждым кадром. Нажатие на спуск финально и обжалованию не подлежит.
4) С плёнки 35мм не будет большей чёткости, не будет большей глубины цвета, не будет большего динамического диапазона. До плёнки 35мм производители современной цифры уже дошли. Если хотите получить что-то более хорошее по качеству — используйте средний формат(его тоже можно найти и не сильно дороже) или хотя бы слайдовую плёнку.
P.S. А гелиос 44, да, хорош!!!
Там область в 90% сканеров — зарезанное лицо. И алгоритмы где лицо во главе угла не работают. Если есть полное лицо и кадр с высоким разрешением(это на видеокамеры не получить), то там всё равно совсем другие алгоритмы когда надо с точностью радужку выделить. Радужка, она далеко не круглая обычно. А предварительный поиск да, обычно через FaceDetect мы сначала делаем в таком случае.
1) Для выделения глаз всем им нужно видеть полное лицо человека, а это значит что на глазу не будет достигатся хорошее разрешение.
2) Глаз выделяется очень примерно и направление берёться скорее по положению лица, чем по внутренней структуре глаза.
3) С веб-камер там очень высоки шумы алгоритма и флуктуации порядка +_10 градусов постоянны… На ютубе десятки примеров, сходу вот — www.youtube.com/watch?v=N_ZS9Zw3V9M&feature=related
В принципе эту технологию какой-то большой западный инситут пытается присобачить в машины, чтобы делать driver-assist (например знаки подсвечивать если водитель на них не обращает внимания), но у них уже лет 7 ничего не выходит дальше дикого прототипа. А они там используют даже глубокие ик-камеры, в которых зрачёк светит как новогодняя ёлка. Ссылку сейчас с ходу не найду, но на мембране точно было.
Интересно мнение которое будет сдерживающим при распространении технологии.
То что есть множество других методов я в окрестности первой картинки обращал внимание, а так же на то, что я буду рассматривать только применимые в СКУД. Все остальные методы либо не достаточно скоростные на сегодня (на снятие характеристики требуется более десятка секунд), либо не достаточно надёжные. Например среди динамической биометрии самой надёжной считается распознавание по голосу, а оно хуже чем даже 2D распознавание по лицу.
Открытые проекты были какие-то (отдельные энтузиасты делали), но там на порядки хуже сегментация и предварительное выделение.
Акомодация компенсируется тем что радужная оболочка при аккомодации растягивается/сжимается, а следовательно вся информация всегда видна, её нужно соответственно растянуть/сжать. В принципе вот тут неплохо описан самый первый из используемых методов в этой тематике. Правда на английском.
А вот не по пальцам там куда большие сложности. Практически все системы по 3д лицу или по глазам, кроме сканера, который будет стоить тыщи 2-3 долларов будут требовать закупки своих же серверов, которые обойдутся в сумму в несколько раз выше. Без них они просто не будут работать.
Если же систему, дублированную нормальным ключом, то либо очень хороший сканер по пальцам (который соседские школьники не смогу обмануть), либо вены руки. Сканер радужки был бы предпочтительнее но пока что они все достаточно дорогие.
>В этом опусе я не вдавался в проблему аутентификации, а только затрагивал >идентификация. В принципе из характеристики FAR/FRR и возможности подделки все >выводы по вопросу аутентификации напрашиваются сами.
100%
А дальше это вопрос пляски с бубнами и сканера радужки. Если устраивает, чтобы человек остановился на месте и покрутил головой туда-сюда, то для одного глаза хватает разрешения 640*480, снятого с видео (но с нормальной линзой и подсветкой и без интерлайновой развёртки). В принципе систему с видео на 1 мегапиксель можно даже сделать удобной, перед которой практически тормозить не надо. В современных системах, таких как AOptix и SRI International по нашей оценке используется видеокамера для предварительной настройки и ~10 мегапиксельная камера для самой съёмки и дальнейшего распознавания. Так что используемое количество мегапикселей это только вопрос удобности системы для пользователей. Чем больше тем она будет удобнее. И дороже)
Читая сайт www.cmsoft.com.br/ натыкался на утверждение (вроде даже с примером на котором оно проверялось) что у nativ функций есть аппаратное ускорение. Сам обычно их и стараюсь использовать…
Но то, что ввели трёхмерные вектора это конечно приятно.
На мой взгляд, не смотря на всю эту проблематику — не всё так грустно. Конечно, для сложного кода построение программы усложняется на порядки по сравнению с CPU, но для простых операций (применить простой фильтр к изображению, произвести простые матричные расчёты) производительность может разогнать даже не специалист. При этом программа будет работать достаточно быстро и на Nvidia и на AMD.