All streams
Search
Write a publication
Pull to refresh
28
0
Send message
Конечно не секрет. Мы пробовали только Personify for Skype (zChat, насколько я понимаю, работает не со скайпом, у них там свой интернет-сервис для этого, и именно на этом они зарабатывают деньги). Это была (на прошлой неделе) самая последняя публично доступная версия — 1.0.3.2. Вот тред об этом на форуме интела: software.intel.com/en-us/forums/topic/473751

Поскольку мы не могли непредвзято оценивать Personify for Skype, мы отдали одну из наших камер другому человеку, не связанным с нашим проектом, и попросили протестировать Personify for Skype. Через пару дней, когда я спросил его — ну как оно? Он извинился и ответил, что Personify for Skype удалил — мешало работать со скайпом, и вообще раздражало. Теперь вот посмотрим какие отзывы будут о Virtualens (возможно такие же, а может и другие).
Да. Мы постарались сделать так, чтобы обоим сторонам было максимально комфортно. С одной стороны не нужно беспокоиться на счет деталей заднего плана, с другой стороны вы не убираете полностью задний план, то есть он не фейк. Таким образом во-первых картинка глазу приятней, а во-вторых у собеседника нет чувства что от него что-то сурово скрывают.

Ну и наконец размытый фон позволяет больше обращать внимание на человека, чем на второстепенные детали окружения — этот прием часто используют в фото и кино.
Работать удобно. Но, как и все в этой области, не поймешь где там грабли пока по ним не походишь.

Со стороны кажется, что вот, SDK выдает нам координаты пальцев, значит сейчас мы рраз, и точно будем знать какое положение руки у пользователя. Это не так. Чудес не бывает, и не бывает абсолютной точности. Сенсор камеры имеет разрешение 320x240, область проецируемая на rgb — еще меньше. А SDK в частности, не может даже отличить правую руку от левой руки, он оперирует понятием первой и второй руки (первая рука это та, которую он первую увидел). Причем он периодически их путает. А еще иногда может скажем коленку (если она попала в кадр каким-то образом) за руку принять.

Это все нормальное дело, используя SDK действительно можно создавать что-то классное. Но нюансов в таких делах масса — добро пожаловать в реальный, аналоговые мир. Мне этот мир был вполне знаком по проекту oxirate.com и я уже вполне умел в нем выживать. Не думаю что Kinekt SDK в чем-то сильно лучше чем PerC SDK (судя по статьям — там те же проблемы).

С обычными камерами там работает все что связано с лицом — то есть face detection и face recognition. Жесты — не работают. Сегментация изображения — тоже не работает.
Кстати, эти 20ти часовые марафоны оказались намного продуктивнее того, как мы работали на хакатоне. Возможно помогло то, что мы уже по сути работали в известной нам области, был уже опыт. Хорошие идеи в голову приходили очень легко и быстро, а затем также легко реализовывались. То есть я склонен думать, что та пара недель, когда мы не написали ни строчки кода, были все же полезны — мы продолжали изучать предметную область.
Кинект в полной мере оно не заменит — «дальнобойность» камеры примерно 1.2-1.5 метра всего (то есть дальше чем 1.5 метра камера перестает четко видеть расстояние до объектов, следовательно человеческую фигуру целиком камера увидеть не может, в отличае от Кинекта), лучше же всего она видит на расстоянии примерно 20-50 см (идеально — 30-40 см). У них все же разные сферы применения. Единственное где они пересекаются — это если у вас Kinekt for Windows со включенным Near Mode (в этом режиме Kinekt воспринимает от 40 см до 3 метров)
Между прочим, это все делается (эти вот ноуты с этими камерами) в некотором роде, в пику Microsoft'у. То есть это активное вытеснение MS из рынка бытовых depth-камер. Таким образом стандартом дефакто станет инструментарий и API от Intel (PerC SDK, а также, частично, железо), а не kinekt-API от MS.

Кроме того, насколько я понимаю, в скором времени в PerC SDK (а значит и всех этих камер в ноутбуках) появится поддержка Linux.
Ну дык, мы же участвуем в конкурсе от Intel ( perceptualchallenge.intel.com ), соответственно я как раз под них пишу софт. У нас четыре таких камеры :-)

А про встроенную в ноуты камеру нам рассказали на вебинаре в начале августа.

Кстати, наш конкурсный проект на leap motion'e сделать не удалось бы. А вот с помощью kinekt'a наверно удалось бы, но он же здоровенный как фиг знает что. Мне страшно представить себе Kinekt 2 закрепленный на крышке ультрабука. То есть с kinekt'ом вышла бы только демка, пользоваться этим никто не стал бы.
Сама камера там ничего не распознает. Она просто выдает карту глубин с разрешением 320x240 (leap motion'у это не конкурент, равно как и leap motion не конкурент этой камере). Это ж PerC SDK from Intel, и вот уже сам SDK, софтверно, может пытаться распознать жесты, впрочем, можно и самостоятельно их распознавать.

Вообще, если бы эта камера всего лишь распознавала жесты — она была бы много менее интересна.
Используют конечно. FreeType используют все! :-)
Да, по уму нужно делать именно так.
Как ни странно, но больше всех в данном случае выигрывает ReactOS, соврешенно бесплатно получив продвинутый шрифтовой движок.

А почему, скажем, не Haiku? ( www.haiku-os.org )
Оно так работать не будет. Для работы ему нужны обе руки (точнее — контакты на разных половинках тела — на левой и правой половинке).
Не в этом случае. Там используется не фотоплетизмограмма, так что браслету глубоко все равно какая там плостность крови, эластичность сосудов и так далее.
Это немного не так. Этот мелкий пик зависит еще от точки измерения (на ухе все совсем иначе нежели на пальце), а также зависит от силы прижатия пальца (или уха) к датчику. Я экспериментировал со всем этим, и меняя давление мог добиться как исчезновения этого пика, так и значительного его увеличения.

Природа этого пика (если у нас фотоплетизмограмма на пальце или ухе снимается) иная, это не отражение от клапанов, а скорее характеристики сосудов которые около точки измерения (в том числе насколько они прямо вот сейчас сдавлены).

Ну а также это все зависит от размеров светоидиода и фотоприемника. В общем, там задачка со множеством переменных :-)

Да, а то что в ролике показано явно не фотоплетизмограмму снимает, судя по начальным кадрам — там по принципу ЭКГ (именно поэтому вначале нужно приложить к браслету палец другой руки, иначе пульс снять не получится. а дальше браслет лишь мониторит не сняли ли его с руки вообще, пульс же он затем не измеряет уже).
Гм. Интересно. Такой шаг MS не могут проигнорировать другие производители Windows-устройств. Ведь им теперь придется конкурировать на рынке устройств с производителем операционной системы.

Насколько я понимаю, MS взяла курс на превращение из компании которая производит софт, в компанию которая производит все — от харда до софта. В какой-то мере они, таким образом, копируют Apple (особенно если учесть внутреннюю реорганизацию компании, в результате которой по структуре она станет больше похожа на структуру apple). Это все в совокупности должно достаточно сильно повлиять на индустрию в целом.
Да, было бы неплохо.

А тут какая версия? Вроде четверка это и есть Мерлин.
Кстати, есть же веб-камеры умеющие h264 выдавать (подключаются по usb — то есть это обычные веб-камеры).
Ну, не все квадракоптерами занимаются, некоторые занимаются еще видеоконференцсвязью, и тут, в некоторых случаях (корпоративных применениях), виртурилка может быть существенно лучше и удобней чем iPhone/iPad в качестве терминала :-)

А что про lcd известно? Какой там шлейф, какой интерфейс? Вообще, можете посоветовать конкретную модель lcd с которой будет минимум проблем, и потребуется минимальная работа паяльником/напильником?

Information

Rating
Does not participate
Location
Нижний Новгород, Нижегородская обл., Россия
Date of birth
Registered
Activity