А один из клонов 8051 используется например в Bluetooth low energy модуле, и мы его используем — успевает не только ble-стек крутить, но и немного нашей логики.
Мой прогноз — на бумстартере вы нужную сумму не соберете. А жаль. Я бы проспонсировал просто за серию подробных статей на хабре о алгоритмах, граблях и деталях реализации + исходники на github'e.
За все устройства не скажу, я работал только с Creative Senz3d. Так вот, там в SDK (Intel PerC SDK) есть и голосовое управление, и управление жестами (скелетная модель кисти, распознавание конкретных жестов и так далее). При этом качество depth-данных, если сравнивать вот с этим habrahabr.ru/company/incos/blog/202724/ там значительно лучше. Лучше просто потому, что там другая технология — там ToF. А в PrimeSense, насколько я помню, используется структурированная подсветка, что тоже в общем то лучше для реконструкции данных чем стереопара.
Нет, конечно и у PerC SDK есть ворох своих скелетов в шкафу и нюансами. Поскольку я довольно много работал с ним когда мы делали приложение на конкурс, этих нюансов хлебнул по полной программе. Ну и нюансов OpenCV мы тоже хлебнули. Поэтому у меня и имеется некоторый скепсис относительно проекта описанного в данной статье. Я вижу какого качества получается depth image, и вполне понимаю что там получится сделать с такими данными, а что нет.
На самом деле я наблюдаю ровно то же самое в других городах и без всяких мигрантов. Отличие Москвы лишь в том, что там есть метро и эту нишу (низкооплачиваемые работники — раздавальщики листовок, дворники, водители) там заняли малокультурные выходцы (возможноиз деревень) из других стран, а не из нашей. При этом результат ровно тот же.
Тут ситуация немного сложнее, большие потоки людей пытаются попасть в метро, на входе стоят десятки мигрантов (выходцы из средней Азии, афроамериканцы, немного азиатов)
Эк им там в Америке плохо, коль из США в Россию мигрировали листовки раздавать! :-)
Дык я и не сомневался. :-) Причем самое обидное, что если ссылку на методологию прислать, то в лучшем случае по ней пройдёт один-два человека, а остальные даже не заметят.
Зато если не дать ссылку, то один заметивший сделает это видимым многим.
Если самолет летает — то этого никто не замечает, так и должно быть. Зато вот если он падает…
много ли пользователей занимаются чистым транскодингом видео на планшете подключенным к питанию? :-) На основании предоставленной информации ведь можно сделать вывод только об этом use case.
Ну и в любом случае, если есть сравнение, то необходимо описать методологию измерения. Чтобы любой желающий мог результаты повторить или опровергнуть. Иначе статью назвать технической нельзя, она превращается в чистую рекламу с маркетинговыми сравнениями устройств.
Да, а мне, как производителю софта под эти устройства, по прочтении статьи так и осталось непонятным чего ожидать от новой платформы и стоит ли вообще в сторону таких устройств смотреть.
32 и 64 битность тут вообще роли не играет, ибо кодировалось видео не через CPU — то было аппаратный транскодер, по сути DSP (например GPU). А там все сильно иначе устроено. Ну, и вообще, см. habrahabr.ru/company/intel/blog/196812/#comment_6863930
Тестирование показало, что аппаратное транскодирование 1080p24@ 23Mbps выполняется при том же качестве на новой платформе Intel в 3 раза быстрее, чем на iPhone 5!
Поскольку работа у меня как раз тесно связана с транскодингом видео (ибо VoIP) и как раз на всяких планшетах да йфонах, мне очень интересна методика тестирования.
Я правильно понимаю, что и на платформе Intel и на iPhone было использовано именно аппаратное транскодирование? Если да, то интересует каким образом это было сделано на iPhone — там нет открытого API для использования аппаратного транскодинга в/из ОЗУ, там можно лишь писать и читать файл. Следовательно у вас производительность могла в том числе, частично, упереться на iPhone в производительность IO а не DSP-процессора (CPU при аппаратном транскодинге, насколько я понимаю, практически не задействуется) + оверхед на контейнер.
Кроме того, интересно какой профиль h264 был задействован.
В идеале бы конечно выложить исходники теста для и для iOS и для Intel-платформы (ну или хотя бы для iOS).
Ну и конечно хочется не отношения, а абсолютных цифр — сколько кадров в секунду транскодирует iPhone 5 а сколько выходит на Intel-платформе.
PS. Ну а то, что производительность iPhone 5 сравнивать с производительностью платформы для планшетов (которые будут только в 2014 году) не корректно — тут уже написали. Кроме разницы в два года, там еще и требования к платформе сильно разные, в частности по энергопотреблению.
Во-первых хочется понять, что такое ко-маркетинговая программа в принципе. Что в нее входит.
Во-вторых про NDA и планы релизов безусловно очень интересно. Скажем нас весьма интересует план развития PeC SDK и все что с этим связано.
В-третьих поскольку мы когда-то победили в хакатон-конкурсе PerC SDK (http://hackday.ru/events/hackday-25/custom), RC у нас вот-вот вылупится, возникает вопрос — что нам это дает (и дает ли вообще?) в плане ко-маркетинга дополнительно.
В-четвертых (я не знаю насколько тут этот вопрос вообще уместен, но пусть будет) — может ли Intel помочь найти партнеров/клиентов (имеется ввиду b2b схема)? Скажем как-то «свести» с производителями устройств (тех же ноутбуков например)?
А, сори. Просто про веб-проект, когда речь шла о стартапах, я не подумал. Просто вокруг меня тут стартапы в основном не с вебом связаны. Да и наш собственно тоже (точнее до стартапа мы пока не доросли, но мы в процессе :-) ).
Да, кроме того, я не очень понял почему ссылка на сайт компании эквивалентна наличию прототипа? Сайт компании это сайт компании, с описанием продукта(или продуктов), контактов и прочего.
Прототип конечно тоже может уже быть, но он явно не на сайте компании будет, а например будет лежать в гараже под брезентом, ждать когда на него уже наконец двигатель поставят да винт новый прикрутят.
А то теория без практики усваивается плохо.
Спасибо.
По моему, это не температура воздуха, а направление ветра в градусах (от 0 до 360 градусов).
Нет, конечно и у PerC SDK есть ворох своих скелетов в шкафу и нюансами. Поскольку я довольно много работал с ним когда мы делали приложение на конкурс, этих нюансов хлебнул по полной программе. Ну и нюансов OpenCV мы тоже хлебнули. Поэтому у меня и имеется некоторый скепсис относительно проекта описанного в данной статье. Я вижу какого качества получается depth image, и вполне понимаю что там получится сделать с такими данными, а что нет.
1) Creative Senz3d (развитием этого дела занимается в том числе и Intel): ru.creative.com/p/web-cameras/creative-senz3d
2) PrimeSens: www.primesense.com
Ну и еще есть технологии от Qualcomm
Эк им там в Америке плохо, коль из США в Россию мигрировали листовки раздавать! :-)
Зато если не дать ссылку, то один заметивший сделает это видимым многим.
Если самолет летает — то этого никто не замечает, так и должно быть. Зато вот если он падает…
PS. Я в курсе какие правила публикации статей у Intel'a.
Ну и в любом случае, если есть сравнение, то необходимо описать методологию измерения. Чтобы любой желающий мог результаты повторить или опровергнуть. Иначе статью назвать технической нельзя, она превращается в чистую рекламу с маркетинговыми сравнениями устройств.
Да, а мне, как производителю софта под эти устройства, по прочтении статьи так и осталось непонятным чего ожидать от новой платформы и стоит ли вообще в сторону таких устройств смотреть.
Поскольку работа у меня как раз тесно связана с транскодингом видео (ибо VoIP) и как раз на всяких планшетах да йфонах, мне очень интересна методика тестирования.
Я правильно понимаю, что и на платформе Intel и на iPhone было использовано именно аппаратное транскодирование? Если да, то интересует каким образом это было сделано на iPhone — там нет открытого API для использования аппаратного транскодинга в/из ОЗУ, там можно лишь писать и читать файл. Следовательно у вас производительность могла в том числе, частично, упереться на iPhone в производительность IO а не DSP-процессора (CPU при аппаратном транскодинге, насколько я понимаю, практически не задействуется) + оверхед на контейнер.
Кроме того, интересно какой профиль h264 был задействован.
В идеале бы конечно выложить исходники теста для и для iOS и для Intel-платформы (ну или хотя бы для iOS).
Ну и конечно хочется не отношения, а абсолютных цифр — сколько кадров в секунду транскодирует iPhone 5 а сколько выходит на Intel-платформе.
PS. Ну а то, что производительность iPhone 5 сравнивать с производительностью платформы для планшетов (которые будут только в 2014 году) не корректно — тут уже написали. Кроме разницы в два года, там еще и требования к платформе сильно разные, в частности по энергопотреблению.
И у меня таки есть вопросы:
Во-первых хочется понять, что такое ко-маркетинговая программа в принципе. Что в нее входит.
Во-вторых про NDA и планы релизов безусловно очень интересно. Скажем нас весьма интересует план развития PeC SDK и все что с этим связано.
В-третьих поскольку мы когда-то победили в хакатон-конкурсе PerC SDK (http://hackday.ru/events/hackday-25/custom), RC у нас вот-вот вылупится, возникает вопрос — что нам это дает (и дает ли вообще?) в плане ко-маркетинга дополнительно.
В-четвертых (я не знаю насколько тут этот вопрос вообще уместен, но пусть будет) — может ли Intel помочь найти партнеров/клиентов (имеется ввиду b2b схема)? Скажем как-то «свести» с производителями устройств (тех же ноутбуков например)?
Спасибо :-)
Прототип конечно тоже может уже быть, но он явно не на сайте компании будет, а например будет лежать в гараже под брезентом, ждать когда на него уже наконец двигатель поставят да винт новый прикрутят.