По собственному опыту могу сказать, что практически невозможно в описании передать все идеи и нюансы проекта. То есть с большой вероятностью если даже кто-то вдохновится написанным вами (что уже само по себе маловероятно — ибо у каждого есть свои идеи и они каждому дороже и ценнее, их воплощать интересней), то реализует он что-то совсем другое, лишь отдаленно похожее.
Нужно обладать недюжим умением убеждать и доносить свою мысль, чтобы кто-то полностью проникся вашей идеей как своей и смог бы автономно, без вас, ровно вот это и воплотить.
юридические вопросы (особенно в российских реалиях)
Это точно! Ну, например где стоит заводить юрлицо? В России или же где-то еще? А если предполагается заключение договоров (партнерство там) с зарубежными компаниями? Какие подводные камни при оформлении и ведении юр.лиц в других странах (да и в России тоже). Ну и так далее.
Отличная идея и совершенное техническое воплощение дает лишь процентов 10 от необходимого для достижения успеха.
В обычных статьях нельзя рекламировать свой проект. Нужно очень тонко чувствовать эту грань, чтобы не нарушить правила. Это сильно ограничивает в плане выбора материалов и способа их подачи.
В корпоративном блоге же можно писать про свой стартап как угодно и что угодно (в рамках закона конечно, ну и нужно писать интересно).
В форме является обязательным для заполнения поле «Название компании*» — значит ли это, что стартап должен быть уже оформлен официально в виде юридического лица?
Насколько я понимаю, чем ближе предмет к камере, тем больше его угловой размер, чем больше угловой размер, тем больше деталей предмета видно при одном и том же разрешении. Так что фича Kinekt for Windows не в том, что оно видит больше деталей, а в том, что там скорее всего FOV IR-оптики другой. Ну и возможно яркость подсветки поменьше, чтобы не засвечивать и не бликовать.
Intel GCC — это что-то новенькое :-) По моему, у них таки свой компилятор есть (который, кстати, оказался в нашем проекте совершенно бесполезным (по кр. мере пока), поэтому мы от него отказались).
Оригинальная статья такое впечатление производит, то есть перевести так, чтобы перевод не производил такого впечатления не вышло бы. Но перевод можно было конечно сделать качественней, иначе смысл совсем теряется. Пример:
Таким образом, теперь разработчики могут воспринимать данные от Kinect, не волнуясь, хорошо или плохо освещен пользователь. Данные не будут искажены из-за того, что кто-то, например, включил верхний свет в комнате.
Оригинал:
So, developers can now accept motion data from the Kinect without needing to worry about the user being properly lit, or having their data go to hell if someone turns on the overhead light, or time sets the sun.
Ключевое тут для понимания — sets the sun. Это означает, что в Kinect 2.0 Microsoft победили таки влияние внешней засветки. То есть даже если такой мощный источник IR-излучения как солнце светит в окошко, все равно depth image будет содержать корректные данные. Эта внешняя засветка (от солнца в особенности частности) дико мешает при работе с PerC SDK/Creative senz3d. В пасмурный день и ночью все хорошо, а вот днем когда солнышко в окошко светит — могут быть проблемы.
То есть проблемы у подобных камер бывают не в темноте (в темноте то как раз все отлично), а в ярко освещенном солнцем помещении и, тем более, на улице.
PS. Вообще на перевод это все не слишком похоже, скорее похоже на вольный пересказ. В оригинале разговор ведется от первого лица, а тут от третьего.
PPS. А вот как мы писали приложение под подобную камеру: habrahabr.ru/post/195474/
Гм. Перевод производился промтом? Один только «Или Режим Глубокого изображения» чего стоит. Тем более что этот режим и в первом кинекте был (иначе нафига вообще кинект нужен? это банальная карта глубин, оно и есть ровно то, что отличает такие камеры от обычных вебок. В Creative senz3d оно тоже есть.).
Ну и статья сама по себе какая-то не сильно грамотная.
Ну, скажем «мысль 3» — любая подобная камера всегда сама себе подсвечивает инфракрасным лазером, соответственно освещение в комнате ей не нужно. Так что Кинект 2.0 тут ну никак не уникален и не отличается от Кинекта первого, или той же Creative senz3d.
Далее, технология ToF (переведенное в статье как «время полета») это давно не академическая идея, это таки используется в коммерческих продуктах. Тут можно посмотреть список: en.wikipedia.org/wiki/Time-of-flight_camera#Brands (и да, похоже что Creative senz3d, с которой работает Intel PerC SDK, и для которой мы таки пишем приложение, работает именно по этой технологии). Так что ничего нового в плане использования этой технологии в коммерческих продуктах.
И вообще, у MS эта технология была еще в 2009 году после того, как они купили ZCam (и думаю на базе этого Kinect 2.0 и делается): en.wikipedia.org/wiki/ZCam
Вообще, статья сильно смахивает на технически неграмотный пиар Кинекта 2.0, рассчитанный на неграмотного же читателя.
Сейчас вышла версия 1.0.4.3 — там проблемы с захватом камеры поправили. Правда у меня несколько раз падал скайп при попытке выбрать Personify Camera, потом это как-то вылечилось.
Выглядит так, будто человек с тобой общается по видеосвязи используя фронтальную камеру смартфона (за тем исключением, что на самом деле у него руки при этом свободны). Тоже изображение лица во весь экран, тоже изображение немного трясется.
30 лет в компании — сложно быть не искренним. Хочется или нет, но за такой срок эмоциональная привязанность к компании точно появляется. Тем более что он был с компанией почти с самого начала, и видел её маленькой-маленькой.
Но это не отменяет факта, что при все этом, как стратег, он значительно слабее Гейтса, или там того же Джобса. (скажем покупку Skype продавил именно Гейтс)
Разве ж это с нуля? Они же на рынке телекоммуникационного оборудования были, есть и уходить, как видим, не собираются. Собираются наоборот — укреплять позиции.
Касательно Skype, наблюдал еще одну интересную демку (вне конкурсную, правда). Там там задача примерно та же, что и у вас, — повысить приватность, но идея совсем другая. В двух словах, отслеживается лицо и программно масштабируется примерно до 80% кадра. Весь фон просто уходиь из поля зрения по самые уши. Скажем, если пользователь отодвигается от камеры — происходит «наезд» (zoom). Когда пользователь активно перемещается, — камера отслеживает его положение и делает кадрирование и зум одновременно.
А это не на каком-то израильском хакатоне было случайно? Вроде бы я что-то такое видел.
Такая реализация имеет свои ограничения в применимости — скажем жестикуляции не видно, в камеру нормально не показать что-нибудь интересное. Ну и вообще картинка весьма специфическая получается. Хотя конечно для каких-то юзкейсов вполне может пригодиться.
Была у меня в свое время камера Logitech Orb — так вот она она умела делать такое на «железе». Кстати, программная реализация мне даже больше понравилась.
Ну, по сути ведь там просто (хотя это и не просто) детектирование и трекинг лица. Программно это можно сделать качественней (хотя и затратней по энергии). При этом для этого какая-то спец. камера не нужна.
В железе это же можно сделать и на базе той же виртурилки, если туда другой, более новый SoC впаять — оно face detection в железе умеет, и масштабирование с кадрированием тоже.
Реализовано через драйвер камеры, но со скайпом работает вполне уверенно.
Через драйвер камеры это как раз самое универсальное, и часто правильное решение. Но и более трудозатратное — намного больше мест где можно на грабли наступить, и вообще систему уронить. Поэтому мы пока ограничились DirectShow source фильтром. Но планируем и через драйвер сделать, тогда Metro-приложения (а также те десктопные приложения которые уже отказались от DirectShow — я такие видел) тоже смогут использовать Virtualens.
Да, еще явно видно, что Personify for Skype лепили быстро — они просто взяли алгоритмы и функционал от zChat и воткнули в скайп-плагин никак не адаптировав для нового применения. В результате оно делает немного не то и не так как ожидает того пользователь.
Существование Personify никак не зависит от успеха или провала Personify for Skype и PerC SDK, у них бизнес иначе построен. А мы зависим напрямую. Поэтому мы вынуждены стараться изо всех сил, чтобы пользователь полюбил и Virtualens и PerC SDK с камерой. Будет провал PerC SDK, люди не будут покупать камеры — Virtualens будет никому не нужен. И мы стараемся чтобы Virtualens стал той самой killer feature, из за которой ноутбуки со встроенными камерами аля Creative Senz3D, с поддержкой PerC SDK, пользовались бы бОльшим спросом и получили бы широкое распространение.
Нужно обладать недюжим умением убеждать и доносить свою мысль, чтобы кто-то полностью проникся вашей идеей как своей и смог бы автономно, без вас, ровно вот это и воплотить.
Это точно! Ну, например где стоит заводить юрлицо? В России или же где-то еще? А если предполагается заключение договоров (партнерство там) с зарубежными компаниями? Какие подводные камни при оформлении и ведении юр.лиц в других странах (да и в России тоже). Ну и так далее.
Отличная идея и совершенное техническое воплощение дает лишь процентов 10 от необходимого для достижения успеха.
В корпоративном блоге же можно писать про свой стартап как угодно и что угодно (в рамках закона конечно, ну и нужно писать интересно).
Желающие могут скачать и пощупать :-)
Это уже не так. gcc окончательно выпилили. Сейчас ObjC реализован и развивается в рамках clang'a.
Таким образом, теперь разработчики могут воспринимать данные от Kinect, не волнуясь, хорошо или плохо освещен пользователь. Данные не будут искажены из-за того, что кто-то, например, включил верхний свет в комнате.
Оригинал:
So, developers can now accept motion data from the Kinect without needing to worry about the user being properly lit, or having their data go to hell if someone turns on the overhead light, or time sets the sun.
Ключевое тут для понимания — sets the sun. Это означает, что в Kinect 2.0 Microsoft победили таки влияние внешней засветки. То есть даже если такой мощный источник IR-излучения как солнце светит в окошко, все равно depth image будет содержать корректные данные. Эта внешняя засветка (от солнца в особенности частности) дико мешает при работе с PerC SDK/Creative senz3d. В пасмурный день и ночью все хорошо, а вот днем когда солнышко в окошко светит — могут быть проблемы.
То есть проблемы у подобных камер бывают не в темноте (в темноте то как раз все отлично), а в ярко освещенном солнцем помещении и, тем более, на улице.
PS. Вообще на перевод это все не слишком похоже, скорее похоже на вольный пересказ. В оригинале разговор ведется от первого лица, а тут от третьего.
PPS. А вот как мы писали приложение под подобную камеру: habrahabr.ru/post/195474/
Ну и статья сама по себе какая-то не сильно грамотная.
Ну, скажем «мысль 3» — любая подобная камера всегда сама себе подсвечивает инфракрасным лазером, соответственно освещение в комнате ей не нужно. Так что Кинект 2.0 тут ну никак не уникален и не отличается от Кинекта первого, или той же Creative senz3d.
Далее, технология ToF (переведенное в статье как «время полета») это давно не академическая идея, это таки используется в коммерческих продуктах. Тут можно посмотреть список: en.wikipedia.org/wiki/Time-of-flight_camera#Brands (и да, похоже что Creative senz3d, с которой работает Intel PerC SDK, и для которой мы таки пишем приложение, работает именно по этой технологии). Так что ничего нового в плане использования этой технологии в коммерческих продуктах.
И вообще, у MS эта технология была еще в 2009 году после того, как они купили ZCam (и думаю на базе этого Kinect 2.0 и делается): en.wikipedia.org/wiki/ZCam
Вообще, статья сильно смахивает на технически неграмотный пиар Кинекта 2.0, рассчитанный на неграмотного же читателя.
Демо начинается с 2:37.
Выглядит так, будто человек с тобой общается по видеосвязи используя фронтальную камеру смартфона (за тем исключением, что на самом деле у него руки при этом свободны). Тоже изображение лица во весь экран, тоже изображение немного трясется.
Apple:
IBM:
И у тех и у других через некоторое время после краха доткомов, вновь наблюдается существенный рост. У Microsoft он отсутствует.
Но это не отменяет факта, что при все этом, как стратег, он значительно слабее Гейтса, или там того же Джобса. (скажем покупку Skype продавил именно Гейтс)
А это не на каком-то израильском хакатоне было случайно? Вроде бы я что-то такое видел.
Такая реализация имеет свои ограничения в применимости — скажем жестикуляции не видно, в камеру нормально не показать что-нибудь интересное. Ну и вообще картинка весьма специфическая получается. Хотя конечно для каких-то юзкейсов вполне может пригодиться.
Ну, по сути ведь там просто (хотя это и не просто) детектирование и трекинг лица. Программно это можно сделать качественней (хотя и затратней по энергии). При этом для этого какая-то спец. камера не нужна.
В железе это же можно сделать и на базе той же виртурилки, если туда другой, более новый SoC впаять — оно face detection в железе умеет, и масштабирование с кадрированием тоже.
Через драйвер камеры это как раз самое универсальное, и часто правильное решение. Но и более трудозатратное — намного больше мест где можно на грабли наступить, и вообще систему уронить. Поэтому мы пока ограничились DirectShow source фильтром. Но планируем и через драйвер сделать, тогда Metro-приложения (а также те десктопные приложения которые уже отказались от DirectShow — я такие видел) тоже смогут использовать Virtualens.
Существование Personify никак не зависит от успеха или провала Personify for Skype и PerC SDK, у них бизнес иначе построен. А мы зависим напрямую. Поэтому мы вынуждены стараться изо всех сил, чтобы пользователь полюбил и Virtualens и PerC SDK с камерой. Будет провал PerC SDK, люди не будут покупать камеры — Virtualens будет никому не нужен. И мы стараемся чтобы Virtualens стал той самой killer feature, из за которой ноутбуки со встроенными камерами аля Creative Senz3D, с поддержкой PerC SDK, пользовались бы бОльшим спросом и получили бы широкое распространение.
Мы очень скромные, да, я знаю :-)