Pull to refresh
183
0
Моржаков Василий @Vasyutka

Пользователь

Send message
шутка классная, но, конечно, не покатит ). надо как-то уложить инъекцию в букву-цифру-цифру-цифру-букву-букву-регион.
Ну внедрить систему распознавания для ГИБДД это же просто мечта… написать if(result==«мой номер») return «аXXXмрХХ»; )))
Здорово написано! картинки зачетные. Особенно если немного читатель в теме — тогда хорошо «собирает» в кучку азы. А в части 2-3-4 еще упомянуть про исследование механизмов памяти, о том, как обучение происходит, да и еще куча-куча тем.

А история с периодом следования импульсов вообще заставляет задуматься и покопаться в теме еще раз. Действительно так интегрально эти импульсы воспринимаются? Или там все не так просто? Синхронность (или близость частот импусльсов) на входах одного нейрона как-то играет? А представить обратные связи с такой вот синхронизацией…

Радует, что на хабре пошла волна публикаций про современные исследования мозга. Тема захватывает молодые (наши) умы и это хорошо )).
кронштейн, как и пластинка, не в фокусе — размыты. Но т.к. солнце априорно известно где — отрезают программно. Ну, это лишь мой правдоподобный домысел )
попадалась статья и про использование обоих рисунков. и вен, и хиромантии (в синем). Да, улучшает. Ну числа улучшаться, но не квадратично опять же, к сожалению. Связано с тем, что и в ИК через раз видны основные линии на ладони, и алгоритмы и их за вены успешно принимают — все в котел. Поэтому, «не квадрат». но безусловно, полезно и то и другое использовать.

А вообще да! вот я об этом и говорю. Куча информации можно вытащить с руки, если не ограничиваться стандартным сканером отпечатка, а проявить креативность и волю к победе :)

но только малоинформативные вещи, как форма ладони, можно смело выкинуть. При привлечении малоинформативных признаков или проиграешь или выиграешь нисколько.
о, дарю Вам и Сонде идею! :) кладем ладошку в специальное углубление, где под пальцами сканеры для пальцев (под два-три пальца), а под ладонью пустота и из этой пустоты шарашит ИК свет и камера смотрит. Два признака — несколько пальцев и ладонь. Вот тут шансов, что будет меньше корреляции сильно повысятся. и может быть станет возможным этот признак использовать, например для верификации хотябы. А то без такого дублирования так и будут 3-5% пользователей ВСЕГДА не срабатывать. А так, если не будет корреляции между теми, у кого ладонь не срабатывает и теми, у кого пальцы какие-то «не те», то есть шанс что таких неудачников будет 0.25% — это уже ничего так. да и вообще статистика улучшится.
Ладонь отфотографировать с венами — проще пареной репы. Взять web-камеру, мощный ик источник света — и все сразу станет видно. Это даже технологически проще, чем отпечатки пальцев. Просто отпечатки пальцев долго в криминалистики исследовали, поэтому первее матаппарат там появился. Не слышал об SDK по распознаванию ладоней, но через пол года кто-то точно на рынке появится с таким предложением — математика там (на первый взгляд) не сложная, да и сканеры дешевые будут. Только аккуратно надо быть и интелектуальной собственностью, хотябы у нас в стране запатентовать на всякий случай, чтобы спокойно продавать. а потом сканеры из китая или самим делать ).

Но там статистике неоткуда взять лучше, чем по пальцу. Те же 1% EER в открытых источниках указывают. и FAR до 0.01% при приемлемых FRR. И таже самая ерунду уверен есть, что и с пальцами. Есть похожие ладони, есть ладони, которые больше похоже на других чем на себя.

Единственное достойство — действительно тяжелее подделать, т.к. нужно как-то стащить у пользователя рисунок вен ладони. Это скрытый биометрический признак — как-то ухищряться надо.
на будущее, если кто спросит :)
по ссылке приведен результат FRR=0.2% (Вероятность ложного совпадения) при FAR=1% (вероятность ложного (или неправомерного) отказа доступа) при сравнении 1 к 1.
Хороший результат для пальцев.

но еще все зависит от сканеров -там в том году много хороших результатов было. Значит сканеры тоже лучше становятся.
прочитал результаты — это при FAR 0.01 Но это не процент, а доли от единицы. Т.е. там FRR=0.002 при FAR=0.01. Вменяемые значения.
Уровень ошибок по одному пальцу:
bias.csr.unibo.it/fvc2004/results/Open_resultsAvg.asp
Sonda — участник P047

EER 2%. Где там 0.2%, что на картинке, не нашел. Может не тот год смотрю?

+ нельзя верить в эти соревнования, фальсифицировать их очень легко (потерять 3-4 картинки из базы и все). И грозит за это только приятный бонус материальный.

Так вот, два пункта:
1) два пальца не даст квадратичного улучшения статистики. И вызванно это тем, что если один палец имеет мало информации и плохо «срабатывает», то второй будет такой же. тоже будет похоже на те же руки. Не 1 на миллион.
2) эта статистика обобщенная. В группе испытуемых (чьи пальцы снимали) есть подгруппа (3-5%), у которых пальцы почти не определяются или совпадают вечно с чужими пальцами. Т.е. в этой группе EER будет, ну пусть 30%, а вот в среднем по всем людям — все намного хуже. Вот только каждый 20ый этим пользоваться не сможет. Или сможет быть похожим «на гендира», как сказали выше.
3) отказ от карточек… ага… Ну пусть все очень хорошо и при заданyом FRR=5% у нас оказывается FAR=0.01% (это из результатов испытания) и пусть 100 000 откажется от карточек. и пусть эти 100 000 один раз в день пользуются карточкой… Итак… в день 100 000 сравнений, по базе 100 000. Это 10^10 сравнений! (ведь каждого с каждым нужно сравнить). FAR = 0.01%. Значит в течении дня банк получит 1 000 000 ложных совпадений. и...? Как это разруливать? автоматическими методами уже нет — биометрия сделала все что могла. позволить человеку самому выбрать какой карточкой пользоваться? О, сегодня пошарюсь по карточки Петрова.

т.е. это нереально

Эх… жаль в биометрических системах как-то не принято фиксировать голову на подставке.

Ну и все же, есть причины по которым при «гуляющей голове» хуже выделяется радужка (смазы, неопределенность в положении глаз и т.п.). В EyeLink решено вспышками, я так понимаю, и большой частотой кадров (трекинг глаза не теряет). вспышки — это правильно. Но все-таки аппаратная часть сильно дорожает тогда. да и трекинг ни к чему, когда радужка захватывается для распознавания. и одного кадра часто хватит.
так, не заметил, там есть опция «свободная голова» и объем
22x18x20 cm
(horizontal x vertical
x depth) \
не разобрался с одним моментом, кто поймет — скажу спасибо. За счет чего они такой качественный скачок делают — там какая-то дополнительная приблуда есть, чтобы оценивать положение головы?
чтобы не было иллюзий на счет EyeLink: www.sr-research.com/pdf/techspec.pdf

Allowable Head Movement
25x25x10 mm
(horizontal x vertical x depth)

Т.е. голова вообще-то гвоздем к потолку прибита должна быть, чтобы система работала )).

Ну а по сути — другие условия работы. Известно где искать и т.д. И еще, для того, чтобы иметь достаточный Сигнал/Шум нужно освещение, диафрагма и некоторая экспозиция. При высокочастотной схемке экспозиция резко меньше, мощность излучателей должна быть ниже максимально разрешенной (безопасной для глаз), а значит и Сигнал/Шум ни к черту будет. + диафрагму открывать придется, а значит глубина резкости меньше.
Ничего страшного в том, что отправляют Aurdino нет.

В космосе на многих Cubsat-ах стоят самые обычные PIC-и 18F, 16F или что-то аналогичное, и срок полета уже идет на года. Расширенный температурный диапазон и все, никаких отличий от индустриальных компонентов. Вешаются Watchdog-и, на всякий случай дублируется, хотя, насколько я понимаю, не всегда. И выбрасывается на орбиту высотой около 500км. Ионосфера на высоте до 1000км присутствует, поэтому спутник получает не все те радости, что и в открытом космосе.

Если вот тут пощелкаться: en.wikipedia.org/wiki/List_of_CubeSats
И в поиске каждый спутник в отдельности попробивать, то выяснится, что многие сделаны на обычных МКшниках. Да и просто заколотить в гугл названия известных контроллеров и слово Cubsat сразу начнет сплывать, что они там оказывается на борту стоят. Если совсем заморочиться, можно найти схемы даже разных плат для кубусатов, которые летали (калифорнийского университета например), там видно, какими watchdog-ами все обвешано.

12 ...
16

Information

Rating
Does not participate
Works in
Date of birth
Registered
Activity