Как стать автором
Обновить
0
0
Inco @Inco

Пользователь

Отправить сообщение
"Причем тут куда и вычисления" — крайне странный комментарий от человека, строящего из себя хоть немного компетентного человека в этой области.

"А face.com сам по себе не был примечателен кроме того, что использовал сверточные сети и глубокое обучения" — простите а deepFace тоже ничем не примечателен? и Yaniv Taigman, собственно автор deepFace, и то что он один из отцов face.com ещё до 2010 "лохматых времен"? )

"Что-нибудь типа AT&T или подобное, используемое для искусственных тестов? :)" — у нас была в ручную размеченная база на 2700, так условия шумов и ракурсы не давали нам возможности использовать открытые базы. Но и не забываем это было 8 лет назад, когда возможно вы только узнали, что такое компьютер )

"И я уверен на 146%, что по этой причине ваш проект и свернули." — я бы продложил с вами дискуссию, но судя по вашим комментариям вы понахватались чего-то и стараетесь показаться компетентным, а ваша манера вести диалог, схожую с уровнем бабушек у подъезда, отбивает остатки желания продолжать разговор.
Мне всегда забавляли такие как вы )
«То что вы делали было лишь игрушкой» — а вы знаете что мы сделали, а что нет?
Лица на тот момент распознавать было очень тяжело, и мы еле делали подсчет (детектируя и трекая лица), используя только появившиеся CUDA вычисления. Распознавание на таком качестве видео — это сказка. Поэтому предполагалось использовать комплекс, общая камера на вхоже детектирует/подсчитывает/трекает лица, и 2-4 поворотные камеры siemens c x7 зумом, прицельно брали лицо крупным планом.

И к слову "2012-2013 начиная с фейсбучной deepFace" — ну вообще-то вы наверно про face.com — который опубликовал первые прорывные наработки в 2010, после чего был взял в состав фб 2012, а deepFace, если мне память появился как сформированный проект, в 2014 году…
А можете что-то прокомметировать (из доступных компактных камер, не обязательно 360) про оптическую стабилизайцию? на днях тестировал GoPro3+ 1080р/60fps — на стопкадрах из-за дрожания все довольно замылено… На удивление, с iPhone6 видео оказывалось лучше.
Мы в нашей компании в 2006-2009 года работали для метрополитена над этой же задачей (Москва и Питер), проект закрыли из-за кризиса, просто заморозив его, убив все наработки в один день )
Долго они отмораживались)))
Задачу можно решить геометрически: матрицу искажения мы знаем, рассчитываем обратную матрицу проектирования (узнаем радиус сферы, если не знаем). Трекая точки на последовательности, находим положение камеры в каждый момент. Итого, найдя 3д координаты углов таблички, мы на каждом кадре знаем, где она и её искаженная поверхность.
В данном устройстве человек тратит больше энергии, чем для набора пальцем на экране.
Приживается все то, что помогает нам лениться.
Да нет, многие решения сейчас очень хорошо детектируют и ведут найденные объекты. developer.vuforia.com например
Я этим занимаюсь 6 лет, а толку то, все то красиво в историях, на практике нереально тяжело проталкивать, раскручивать, а с этого года, так вообще отрасль встала /*я про Россию */
2 года Оживлятора Максима, год Игромании Live, десятки разовых кейсов.
Вся проблема не в технологии, уже есть хорошие доступные средства. Проблема в контенте и желании вкладываться в «рискованные средства продвижения товаров».

Я фанат этих технологий и считаю, что они найдут своё применение. Но давайте снимем пенку, и посмотрим реально, капиталистическими глазами на ситуацию. Никто не хочет тратить деньги, не ожидая прибылей.

Рассмотрим этот красивый ролик: Весь его смысл сводится к -> заинтересованность производителя/отдел реализации игрушки вложиться, чтобы прорекламировать свой товар. Так как вероятность купить именно эту игрушку, с таким подходом выше, чем у остальных. Ребёнок поиграл, захотел именно эту игрушку + привлек внимание других детей.
Все остальное, показанное в ролике — пенка: Ребёнок толкается у ветрины и мешает прохожу/подходу других детей/родителей к другим игрушкам. Скидка для ребёнка — не мотиватор, а родитель, заставляющий играть ребёнка ради скидки, тоже выглядит сомнительно. Разнообразие фантазии в виртуальных играх пока ограничено.
В итоге мы получаем, что данный подход не может быть массовым, иначе теряется value. Производитель вкладывается, чтобы выделиться. Массовость данного подхода возможна только на уровне интеграции системы распознования в предуставновленные камеры на телефонах, Но тогда вообще весь подход меняет свою природу.
Одна беда, что рекламщики (отечественные) пока не умеют, и особо не хотят применять этот инструмент в своих рекламных акциях. И даже те крохи рекламных кейсов, что все-таки существуют, в большинстве случаев проталкиваются снизу, от разработчиков или площадок.

Проблема в том, что человек не мотивирован смотреть на рекламу в большей своей массе только из-за её креативности. Реклама работает как «сопутствующий» элемент. А главное интересный контент. Который по своей сути уже самодостаточен.

То есть чтобы все это заработало надо одновременный микс: интереса рекламщиков + специфичный контент (не все можно хорошо виртуализировать). А ни те, ни другие пока не видят выгоды, и механизм должен раскручиваться одновременно.
Но надеюсь этот маховик раскрутится в течении лет трех-пяти
/*субъективное мнение из личного опыта*/
Мне скрывать нечего, но мои переписки/контакты/поведение просто не их дело…
А чем не подходит такое решение?..
image
Выглядит круто и примерно понятно…
Но вопрос сразу… а как они фон за объектом так качественно порой генерят? На некоторых демо видно, что там пачи с кусков рядом, но вот на видео с трубой, уж как-то слишком идеально тучи и листва восстановлены… или я что-то упустил?
Также друг заметил, что видео или монтажное, или игры подхаченные, так как генерацией кадров бОльшего разрешения такого эффектра бы не было, тогда в quake (например) пушка рисовалась бы где-нибудь на полу… то есть с генерацией «окрежения» они как-то «хитрят»…
Кинект им ещё нужен, чтобы правильно рассчитать перспективные искажения.
Так как проектор светит на все что непопадя, плоскости под любым углом, а смотреться должно как плоский экран. А дальше проектор просто делает свое дело.
Очень круто… мечтал бы с ними работать =(
АААА! =( Ну когда же они сделают тоже но для С++ =((
/* прям реально крик души */
Вы — молодцы, снимаю шляпу.
Сам более 5 лет в теме, активно ботаю тему с допреалом (детекция натуральных особеностей и 3д реконструкцией). И начинал все изучение как раз с opencv, и до сих пор использую как быстрый и удобный способ проверки новых теорий и идей!
Очень вам плагодарен.

ps: Если смог бы вам как-то пригодится, обращайтесь! Быз бы польщён!
Мне кажется, очки для повседневной носки войдут в моду лучшем случае лет через 5-10. А смартфоны есть уже сейчас и у кажого. И все производители софта, что я вижу, ориентируются именно на смартфоны пока.
Это не японцы, Аураза — в штатах, дочка британской компании Autonomy…

// если кто-то хочет заниматься разработкой подобного движка — пишите в личку =)
Нет, ключевая точка — это не шум, это ярковыроженное локальное поведение функции.
Сильный локальный экстремум (как в 90% случаем принимается).

" как они сопоставляют картинки?" — По ключевым точкам =)
а что вы подразумеваете под «подсказками»?
Печалька =(

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность