Pull to refresh

Comments 40

я бы хотел вывести топик на главную, да только не знаю в какой блог лучше.
может в «Стартапы», как думаете?
UFO just landed and posted this here
угу, я когда вживую смотрел — ощущение возникло что телепатия прям какая-то
В настоящее время развитие программы EYCIN сдерживает отсутствие коммерчески доступных камер для слежения, чья дальность работы превышала бы 1-1,5 метра
повторюсь, что CrossView работает при помощи обычной веб-камеры. по-моему прорыв.
да и уверен что институту Фраунхофера выделили не один миллион на исследования, о чём наши могли бы только мечтать =)
Скажу даже больше, в США уже давно есть люди которые этим деньги зарабатывают.Паре нормальных программистов такой софт написать вообще не проблема.Ах да, ссылка на сайт www.eyetechds.com, кстати еще есть несколько компаний занимающихся такими же вещами.Претензия автора на инновационность данной технологии сомнительна…
Более чем, любой средний программист может реализовать подобное с помощью библиотеки OpenCV
выходит очередной болгенос придумали
добавил в пост update, но болгеносом думаю называть не хорошо, всё таки люди сами код писали. неприятный ярлык для любого разработчика, я думаю.
Я тоже не пойму в чем «Принципиально новое» данное ПО? Помню года 3 назад показывал на работе друзьям такую фичу. Не помню как та называлась, но работала или с глаз или с пальца или с любого другого «промаркерованного» образа. В итоге использовать как альтернатива мышке — нереально, для людей с проблемами двигательной функции организма — самое оно.
Первое что гугл дал — developers.camspace.com/.
Будущее у таких систем обратной связи с пользователем за нейро-системами, считыванием информации напрямую с коры головного мозга или через нейроны-посредники на теле, как бы глупо это не звучало…
Абсолютно согласен, что принципиально нового здесь ничего нет. Видел такую фичу 2 года назад в HP-шных ноутах, просто ребята сделали свою реализацию.
ну так на вас это не действует — зато для обычных людей прорыв якобы)) обычный ход
Хватит изобретать велосипеды, хватит наступать на грабли псевдоинноваций, все мы были свидетелями подобных случаев, ничего хорошего из этого не вышло. Я всячески за развитие рынка ИТ, и в частности за инновации родом из этих стран, но привычный принцип — «укради, перекрась, продай» в интернете не действует, т.к. люди здесь не ограничены в поиске и получении информации.
«принципиально новое...», технология айтрекинга не нова, и мы это не отрицали. Не это было главной фишкой нашего проекта. Принципиально новое, в том, что мы ориентировали эту систему на людей с ограниченной подвижностью. Да, частично изобретя велосипед, но так было удобнее для дальнейшей интеграции с остальным нашим функционалом. Да и наше решение, полностью софтверное, и не требует никаких инфракрассных камер или доп. девайсов крепящихся на голову.

Стоит заметить, что второе место на ИмКапе заняла команда из Сербии, практически с аналогичным проектом, только они использовали нейро-датчик. Однако работало это просто ужасно, многие судьи отметили, что наша система намного точнее, гибче, и проще в освоении. Но будущее за нейродатчиками, да… но не в ближайшем времени.
Если честно — поиском аналогов не занимался. Просто увидел реализацию и восхитился.
Ну раз есть значит есть, тогда будем считать что просто поделился увиденным. До этого не встречал инфы о таких работах.
Странно что это не поставлено на коммерческие рельсы — ведь идею можно развить очень далеко. Зачем делать дорогие мониторы с тачскрином когда можно гораздо удешевить при помощи встроенной камеры в нетбук. Но это так, мысли вслух.
Чуть выше давали ссылку на коммерциализацию данной идеи.
Она не жизнеспособна в обычных условиях, поставьте её или её аналог себе и попробуйте работать и играть на компьютере как обычно — у большинства пользователей этого не выйдет, т.к. процент ложного срабатывания или не срабатывания очень высокий.
по мне так бесполезная вещь, разве что для тех, кто не может использовать руки (парализованы или нет вообще). мне больше понравился вот этот проект: http://torbensko.com/phd/
вкратце, это система отслеживающая положение и эмоции лица, благодаря которым можно, например, добавить больше возможностей управления в играх. по ссылке рассказывается о технологии, видео с примерами использования и можно скачать FaceAPI, который позволит внедриться эту технологию в своё приложение. тут http://torbensko.com/software/head_tracking/ пример использования FaceAPI в виде мода для Source движка
Интересная разработка. Как перемещается курсор более или менее понятно, а вот как производится клик?
моргать надо, стало быть…

а вот "… и набирает текст...." — действительно непонятно, разве что виртуальная клавиатура, дык, так долго очень.
клавиатура да — виртуальная. как я понимаю это должно быть надстройкой над windows — как инструменты для людей с ограниченными возможностями. поэтому конечно же клавиатура виртуальная, как ещё. по идее если пойти дальше то и браузер должен быть тоже с надстройками — увеличенными клавишами и упрощённой выдачей html (как это красиво умеет делать опера мини, например)
Клик — по задержке.
Набирать текст можно двумя способами, либо с помощью виртуальной клавиатуры (не так уж и долго, есть функция автокомплита слов)
либо с помощью жестов, эксперементальная функция, и не самая удобная, но вводить символы можно, просто чертив буквы глазами.
Ах, да, я и забыл что в этом видео другая клавиатура. После оптимизации алгоритма, нам удалось увеличить точность почти в 3 раза, в новой версии клавиатура как на Phone 7.
Уххх. Говор девушки доставляет. Неужели в институте нет хорошеньких англичанок :)
Такой акцент блин) Явно только по книге учила. Facebook Так и не показали :(
да нету там фейсбука, просто для заманухи показали, так сказать на перспективу
Фейсбук был отключен, т.к. не успели допилить все функции до финала.
А видео в топике очень старое, там вообще почти ничего нет.
Прошу прощения за видео, оно делалось за один день, только ради для того, что бы залить на сайт ИмКапа. На видео и версия программы, сырая, и сама презентация никуда не годиться. На Финале в Варшаве было показано совершенно другое. Жаль видео у меня нет.
Мне в подобных штуках не нравится тот факт, что глаза, которые я использую исключительно, как принимающее устройство, мне предлагают использовать в качестве контролера.
Это довольно непривычно… такая ж фигня с управлением жестами/голосом — я поковырялся в носу/выругался и случайно удалил пару файлов (гипербола).

Мышка и клавиатура хороши тем, что я ясно даю понять компьютеру (и, главное, себе самому), что я хочу послать команду именно ему.

Пока, я ставлю на управление мыслями, хотя оно сейчас требует усилий и концентрации ещё больше чем глаза/жесты/голос…
Но в целом, подобные эксперименты очень радуют :)
Выглядит как-то странно — курсор двигается плавно, мои глаза так плавно и так _постоянно плавно_ не двигаются по экрану никогда — точка куда я смотрю меняется рывками, ведь зрачки двигаются очень быстро. Вот посмотрите хотябы это видео.
www.youtube.com/watch?v=lS_SpQreN5k
думаю что навыки для этого нужны. к тачпаду тоже сложно привыкнуть, однако когда нет другой возможности…
Частично курсор усредняется, потому как резкие движения курсора начинают раздражать.
UFO just landed and posted this here
Покажите существующую дешевую реализацию айтрекинга для помощи парализованным.
Расскажите, пожалуйста, как вы вычисляете порог бинаризации?

На самом деле из того что я использовал — крайне тяжело правильно скалибровать зрачок.
У вас потому калибровка так медленно происходит?

Кроме того, если и пользователя косоглазие — возникает вопрос с выбором глаза. В идеале надо 2 камеры, каждая из которых будет работать с определенным глазом. Правда все это усложнит систему.

И про навыки — насколько просто обращаться с такой системой. Судя по видео — без напряга, и тогда ей цены нет.

а мы не бинаризируем изображение, используем greyscale, потому как полутона важны для более точного определения.

А работает медленно, потому что запущенно на студенческой телеге, это заметно и по отзывчивости интерфейса на WPF, и в момент калибровки, которая особенно зависима от производительности.

И так как анализируется не конкретно зрачок, и вся область глаза, то проблем с косоглазием не возникает, мало того, даже в очках (прозрачных) программа работает весьма корректно.

А две камеры действительно позволят значительно повысить точность и стабильность системы, но, это противоречит основным идеям которые мы вкладывали в этот проект, а это: простота и дешевизна. И фактически этого мы добились создав чисто софтверное решение, которое можно запустить на любом ноутбуке не прилагая никаких усилий. А если вы посмотрите ссылки, что давали вверху на аналогичные проекты за n-тысяч $$, то там да, они все используют две камеры статично прикрученные к низу экрана.
После Imcup вы развиваете проект?

Про очки особенно порадовало, ибо в моем случае это критично. Спасибо.
Нет, но возможно его ждет реинкарнация в виде уже коммерческого, более качественного продукта.
Пост лучше перенести в интерфейсы — там это будет полезнее. Как пример реализации, если кто-то будет возмущаться.
Пост не мой, а автор может перенести, хотя в прошлый раз ему за это изрядно нагадили в карму, поэтому он и лежит тут.
Sign up to leave a comment.

Articles