Pull to refresh
28
0
Send message
А задания для самостоятельного решения (задачи на дом/практика) к этому курсу лекций где-то найти можно? А видео семинаров?
А один из клонов 8051 используется например в Bluetooth low energy модуле, и мы его используем — успевает не только ble-стек крутить, но и немного нашей логики.
Вот это настоящий флагман! Истинная интеловская архитектура и instruction set! А то x86, x86… x86 это ж вообще IBM :-)
При нажатии на какую-либо точку на карте, мы получаем скорость ветра, температуру воздуха в данной точке (по Фаренгейту вроде как) и координаты точки.

По моему, это не температура воздуха, а направление ветра в градусах (от 0 до 360 градусов).
Мой прогноз — на бумстартере вы нужную сумму не соберете. А жаль. Я бы проспонсировал просто за серию подробных статей на хабре о алгоритмах, граблях и деталях реализации + исходники на github'e.
Стереопару можно конечно настраивать, только качество и детализация там на выходе все равно хуже, как ни настраивай :-)
За все устройства не скажу, я работал только с Creative Senz3d. Так вот, там в SDK (Intel PerC SDK) есть и голосовое управление, и управление жестами (скелетная модель кисти, распознавание конкретных жестов и так далее). При этом качество depth-данных, если сравнивать вот с этим habrahabr.ru/company/incos/blog/202724/ там значительно лучше. Лучше просто потому, что там другая технология — там ToF. А в PrimeSense, насколько я помню, используется структурированная подсветка, что тоже в общем то лучше для реконструкции данных чем стереопара.

Нет, конечно и у PerC SDK есть ворох своих скелетов в шкафу и нюансами. Поскольку я довольно много работал с ним когда мы делали приложение на конкурс, этих нюансов хлебнул по полной программе. Ну и нюансов OpenCV мы тоже хлебнули. Поэтому у меня и имеется некоторый скепсис относительно проекта описанного в данной статье. Я вижу какого качества получается depth image, и вполне понимаю что там получится сделать с такими данными, а что нет.
В копилку аналогичных устройств:
1) Creative Senz3d (развитием этого дела занимается в том числе и Intel): ru.creative.com/p/web-cameras/creative-senz3d
2) PrimeSens: www.primesense.com

Ну и еще есть технологии от Qualcomm
На самом деле я наблюдаю ровно то же самое в других городах и без всяких мигрантов. Отличие Москвы лишь в том, что там есть метро и эту нишу (низкооплачиваемые работники — раздавальщики листовок, дворники, водители) там заняли малокультурные выходцы (возможноиз деревень) из других стран, а не из нашей. При этом результат ровно тот же.

Тут ситуация немного сложнее, большие потоки людей пытаются попасть в метро, на входе стоят десятки мигрантов (выходцы из средней Азии, афроамериканцы, немного азиатов)

Эк им там в Америке плохо, коль из США в Россию мигрировали листовки раздавать! :-)
А что из этого (работающего собственно с кодом) работает с С++?
Дык я и не сомневался. :-) Причем самое обидное, что если ссылку на методологию прислать, то в лучшем случае по ней пройдёт один-два человека, а остальные даже не заметят.

Зато если не дать ссылку, то один заметивший сделает это видимым многим.

Если самолет летает — то этого никто не замечает, так и должно быть. Зато вот если он падает…
Было бы здорово, если бы в статье были ссылки на это. Хоть какие-то.

PS. Я в курсе какие правила публикации статей у Intel'a.
много ли пользователей занимаются чистым транскодингом видео на планшете подключенным к питанию? :-) На основании предоставленной информации ведь можно сделать вывод только об этом use case.

Ну и в любом случае, если есть сравнение, то необходимо описать методологию измерения. Чтобы любой желающий мог результаты повторить или опровергнуть. Иначе статью назвать технической нельзя, она превращается в чистую рекламу с маркетинговыми сравнениями устройств.

Да, а мне, как производителю софта под эти устройства, по прочтении статьи так и осталось непонятным чего ожидать от новой платформы и стоит ли вообще в сторону таких устройств смотреть.
32 и 64 битность тут вообще роли не играет, ибо кодировалось видео не через CPU — то было аппаратный транскодер, по сути DSP (например GPU). А там все сильно иначе устроено. Ну, и вообще, см. habrahabr.ru/company/intel/blog/196812/#comment_6863930
Тестирование показало, что аппаратное транскодирование 1080p24@ 23Mbps выполняется при том же качестве на новой платформе Intel в 3 раза быстрее, чем на iPhone 5!


Поскольку работа у меня как раз тесно связана с транскодингом видео (ибо VoIP) и как раз на всяких планшетах да йфонах, мне очень интересна методика тестирования.

Я правильно понимаю, что и на платформе Intel и на iPhone было использовано именно аппаратное транскодирование? Если да, то интересует каким образом это было сделано на iPhone — там нет открытого API для использования аппаратного транскодинга в/из ОЗУ, там можно лишь писать и читать файл. Следовательно у вас производительность могла в том числе, частично, упереться на iPhone в производительность IO а не DSP-процессора (CPU при аппаратном транскодинге, насколько я понимаю, практически не задействуется) + оверхед на контейнер.

Кроме того, интересно какой профиль h264 был задействован.

В идеале бы конечно выложить исходники теста для и для iOS и для Intel-платформы (ну или хотя бы для iOS).

Ну и конечно хочется не отношения, а абсолютных цифр — сколько кадров в секунду транскодирует iPhone 5 а сколько выходит на Intel-платформе.

PS. Ну а то, что производительность iPhone 5 сравнивать с производительностью платформы для планшетов (которые будут только в 2014 году) не корректно — тут уже написали. Кроме разницы в два года, там еще и требования к платформе сильно разные, в частности по энергопотреблению.
О! Приятно увидеть знакомое лицо :-)

И у меня таки есть вопросы:

Во-первых хочется понять, что такое ко-маркетинговая программа в принципе. Что в нее входит.

Во-вторых про NDA и планы релизов безусловно очень интересно. Скажем нас весьма интересует план развития PeC SDK и все что с этим связано.

В-третьих поскольку мы когда-то победили в хакатон-конкурсе PerC SDK (http://hackday.ru/events/hackday-25/custom), RC у нас вот-вот вылупится, возникает вопрос — что нам это дает (и дает ли вообще?) в плане ко-маркетинга дополнительно.

В-четвертых (я не знаю насколько тут этот вопрос вообще уместен, но пусть будет) — может ли Intel помочь найти партнеров/клиентов (имеется ввиду b2b схема)? Скажем как-то «свести» с производителями устройств (тех же ноутбуков например)?

Спасибо :-)
А, сори. Просто про веб-проект, когда речь шла о стартапах, я не подумал. Просто вокруг меня тут стартапы в основном не с вебом связаны. Да и наш собственно тоже (точнее до стартапа мы пока не доросли, но мы в процессе :-) ).
Да, кроме того, я не очень понял почему ссылка на сайт компании эквивалентна наличию прототипа? Сайт компании это сайт компании, с описанием продукта(или продуктов), контактов и прочего.

Прототип конечно тоже может уже быть, но он явно не на сайте компании будет, а например будет лежать в гараже под брезентом, ждать когда на него уже наконец двигатель поставят да винт новый прикрутят.
Прототип это лишь мгновенный снимок идеи. Скомуниздить стартап по прототипу, это все равно что попытаться восстановить видео по одному кадру.

Information

Rating
Does not participate
Location
Нижний Новгород, Нижегородская обл., Россия
Date of birth
Registered
Activity