Конечно не секрет. Мы пробовали только Personify for Skype (zChat, насколько я понимаю, работает не со скайпом, у них там свой интернет-сервис для этого, и именно на этом они зарабатывают деньги). Это была (на прошлой неделе) самая последняя публично доступная версия — 1.0.3.2. Вот тред об этом на форуме интела: software.intel.com/en-us/forums/topic/473751
Поскольку мы не могли непредвзято оценивать Personify for Skype, мы отдали одну из наших камер другому человеку, не связанным с нашим проектом, и попросили протестировать Personify for Skype. Через пару дней, когда я спросил его — ну как оно? Он извинился и ответил, что Personify for Skype удалил — мешало работать со скайпом, и вообще раздражало. Теперь вот посмотрим какие отзывы будут о Virtualens (возможно такие же, а может и другие).
Да. Мы постарались сделать так, чтобы обоим сторонам было максимально комфортно. С одной стороны не нужно беспокоиться на счет деталей заднего плана, с другой стороны вы не убираете полностью задний план, то есть он не фейк. Таким образом во-первых картинка глазу приятней, а во-вторых у собеседника нет чувства что от него что-то сурово скрывают.
Ну и наконец размытый фон позволяет больше обращать внимание на человека, чем на второстепенные детали окружения — этот прием часто используют в фото и кино.
Работать удобно. Но, как и все в этой области, не поймешь где там грабли пока по ним не походишь.
Со стороны кажется, что вот, SDK выдает нам координаты пальцев, значит сейчас мы рраз, и точно будем знать какое положение руки у пользователя. Это не так. Чудес не бывает, и не бывает абсолютной точности. Сенсор камеры имеет разрешение 320x240, область проецируемая на rgb — еще меньше. А SDK в частности, не может даже отличить правую руку от левой руки, он оперирует понятием первой и второй руки (первая рука это та, которую он первую увидел). Причем он периодически их путает. А еще иногда может скажем коленку (если она попала в кадр каким-то образом) за руку принять.
Это все нормальное дело, используя SDK действительно можно создавать что-то классное. Но нюансов в таких делах масса — добро пожаловать в реальный, аналоговые мир. Мне этот мир был вполне знаком по проекту oxirate.com и я уже вполне умел в нем выживать. Не думаю что Kinekt SDK в чем-то сильно лучше чем PerC SDK (судя по статьям — там те же проблемы).
С обычными камерами там работает все что связано с лицом — то есть face detection и face recognition. Жесты — не работают. Сегментация изображения — тоже не работает.
Кстати, эти 20ти часовые марафоны оказались намного продуктивнее того, как мы работали на хакатоне. Возможно помогло то, что мы уже по сути работали в известной нам области, был уже опыт. Хорошие идеи в голову приходили очень легко и быстро, а затем также легко реализовывались. То есть я склонен думать, что та пара недель, когда мы не написали ни строчки кода, были все же полезны — мы продолжали изучать предметную область.
Кинект в полной мере оно не заменит — «дальнобойность» камеры примерно 1.2-1.5 метра всего (то есть дальше чем 1.5 метра камера перестает четко видеть расстояние до объектов, следовательно человеческую фигуру целиком камера увидеть не может, в отличае от Кинекта), лучше же всего она видит на расстоянии примерно 20-50 см (идеально — 30-40 см). У них все же разные сферы применения. Единственное где они пересекаются — это если у вас Kinekt for Windows со включенным Near Mode (в этом режиме Kinekt воспринимает от 40 см до 3 метров)
Между прочим, это все делается (эти вот ноуты с этими камерами) в некотором роде, в пику Microsoft'у. То есть это активное вытеснение MS из рынка бытовых depth-камер. Таким образом стандартом дефакто станет инструментарий и API от Intel (PerC SDK, а также, частично, железо), а не kinekt-API от MS.
Кроме того, насколько я понимаю, в скором времени в PerC SDK (а значит и всех этих камер в ноутбуках) появится поддержка Linux.
Ну дык, мы же участвуем в конкурсе от Intel ( perceptualchallenge.intel.com ), соответственно я как раз под них пишу софт. У нас четыре таких камеры :-)
А про встроенную в ноуты камеру нам рассказали на вебинаре в начале августа.
Кстати, наш конкурсный проект на leap motion'e сделать не удалось бы. А вот с помощью kinekt'a наверно удалось бы, но он же здоровенный как фиг знает что. Мне страшно представить себе Kinekt 2 закрепленный на крышке ультрабука. То есть с kinekt'ом вышла бы только демка, пользоваться этим никто не стал бы.
Сама камера там ничего не распознает. Она просто выдает карту глубин с разрешением 320x240 (leap motion'у это не конкурент, равно как и leap motion не конкурент этой камере). Это ж PerC SDK from Intel, и вот уже сам SDK, софтверно, может пытаться распознать жесты, впрочем, можно и самостоятельно их распознавать.
Вообще, если бы эта камера всего лишь распознавала жесты — она была бы много менее интересна.
Не в этом случае. Там используется не фотоплетизмограмма, так что браслету глубоко все равно какая там плостность крови, эластичность сосудов и так далее.
Это немного не так. Этот мелкий пик зависит еще от точки измерения (на ухе все совсем иначе нежели на пальце), а также зависит от силы прижатия пальца (или уха) к датчику. Я экспериментировал со всем этим, и меняя давление мог добиться как исчезновения этого пика, так и значительного его увеличения.
Природа этого пика (если у нас фотоплетизмограмма на пальце или ухе снимается) иная, это не отражение от клапанов, а скорее характеристики сосудов которые около точки измерения (в том числе насколько они прямо вот сейчас сдавлены).
Ну а также это все зависит от размеров светоидиода и фотоприемника. В общем, там задачка со множеством переменных :-)
Да, а то что в ролике показано явно не фотоплетизмограмму снимает, судя по начальным кадрам — там по принципу ЭКГ (именно поэтому вначале нужно приложить к браслету палец другой руки, иначе пульс снять не получится. а дальше браслет лишь мониторит не сняли ли его с руки вообще, пульс же он затем не измеряет уже).
Гм. Интересно. Такой шаг MS не могут проигнорировать другие производители Windows-устройств. Ведь им теперь придется конкурировать на рынке устройств с производителем операционной системы.
Насколько я понимаю, MS взяла курс на превращение из компании которая производит софт, в компанию которая производит все — от харда до софта. В какой-то мере они, таким образом, копируют Apple (особенно если учесть внутреннюю реорганизацию компании, в результате которой по структуре она станет больше похожа на структуру apple). Это все в совокупности должно достаточно сильно повлиять на индустрию в целом.
Ну, не все квадракоптерами занимаются, некоторые занимаются еще видеоконференцсвязью, и тут, в некоторых случаях (корпоративных применениях), виртурилка может быть существенно лучше и удобней чем iPhone/iPad в качестве терминала :-)
А что про lcd известно? Какой там шлейф, какой интерфейс? Вообще, можете посоветовать конкретную модель lcd с которой будет минимум проблем, и потребуется минимальная работа паяльником/напильником?
Поскольку мы не могли непредвзято оценивать Personify for Skype, мы отдали одну из наших камер другому человеку, не связанным с нашим проектом, и попросили протестировать Personify for Skype. Через пару дней, когда я спросил его — ну как оно? Он извинился и ответил, что Personify for Skype удалил — мешало работать со скайпом, и вообще раздражало. Теперь вот посмотрим какие отзывы будут о Virtualens (возможно такие же, а может и другие).
Ну и наконец размытый фон позволяет больше обращать внимание на человека, чем на второстепенные детали окружения — этот прием часто используют в фото и кино.
Со стороны кажется, что вот, SDK выдает нам координаты пальцев, значит сейчас мы рраз, и точно будем знать какое положение руки у пользователя. Это не так. Чудес не бывает, и не бывает абсолютной точности. Сенсор камеры имеет разрешение 320x240, область проецируемая на rgb — еще меньше. А SDK в частности, не может даже отличить правую руку от левой руки, он оперирует понятием первой и второй руки (первая рука это та, которую он первую увидел). Причем он периодически их путает. А еще иногда может скажем коленку (если она попала в кадр каким-то образом) за руку принять.
Это все нормальное дело, используя SDK действительно можно создавать что-то классное. Но нюансов в таких делах масса — добро пожаловать в реальный, аналоговые мир. Мне этот мир был вполне знаком по проекту oxirate.com и я уже вполне умел в нем выживать. Не думаю что Kinekt SDK в чем-то сильно лучше чем PerC SDK (судя по статьям — там те же проблемы).
С обычными камерами там работает все что связано с лицом — то есть face detection и face recognition. Жесты — не работают. Сегментация изображения — тоже не работает.
Кроме того, насколько я понимаю, в скором времени в PerC SDK (а значит и всех этих камер в ноутбуках) появится поддержка Linux.
А про встроенную в ноуты камеру нам рассказали на вебинаре в начале августа.
Кстати, наш конкурсный проект на leap motion'e сделать не удалось бы. А вот с помощью kinekt'a наверно удалось бы, но он же здоровенный как фиг знает что. Мне страшно представить себе Kinekt 2 закрепленный на крышке ультрабука. То есть с kinekt'ом вышла бы только демка, пользоваться этим никто не стал бы.
Вообще, если бы эта камера всего лишь распознавала жесты — она была бы много менее интересна.
А почему, скажем, не Haiku? ( www.haiku-os.org )
Природа этого пика (если у нас фотоплетизмограмма на пальце или ухе снимается) иная, это не отражение от клапанов, а скорее характеристики сосудов которые около точки измерения (в том числе насколько они прямо вот сейчас сдавлены).
Ну а также это все зависит от размеров светоидиода и фотоприемника. В общем, там задачка со множеством переменных :-)
Да, а то что в ролике показано явно не фотоплетизмограмму снимает, судя по начальным кадрам — там по принципу ЭКГ (именно поэтому вначале нужно приложить к браслету палец другой руки, иначе пульс снять не получится. а дальше браслет лишь мониторит не сняли ли его с руки вообще, пульс же он затем не измеряет уже).
Насколько я понимаю, MS взяла курс на превращение из компании которая производит софт, в компанию которая производит все — от харда до софта. В какой-то мере они, таким образом, копируют Apple (особенно если учесть внутреннюю реорганизацию компании, в результате которой по структуре она станет больше похожа на структуру apple). Это все в совокупности должно достаточно сильно повлиять на индустрию в целом.
А тут какая версия? Вроде четверка это и есть Мерлин.
А что про lcd известно? Какой там шлейф, какой интерфейс? Вообще, можете посоветовать конкретную модель lcd с которой будет минимум проблем, и потребуется минимальная работа паяльником/напильником?