Комментарии 37
Для борьбы со срабатыванием на жуков, пауков и капли дождя можно ставить рядом две камеры и засчитывать «срабатывание» только при одновременном (примерно) сигнале с обеих. А собак и людей вроде бы нормально детектирует.
А Вы не пробовали три камеры ставить? Какая вероятность, что на них всех за ночь не поселяться пауки?
Люди и собаки, а также тени и птицы действительно хорошо детектируются, только причем здесь видеоаналитика? Это обычный контрастный видеодетектор, существующий в любом Дивиарике.
Люди и собаки, а также тени и птицы действительно хорошо детектируются, только причем здесь видеоаналитика? Это обычный контрастный видеодетектор, существующий в любом Дивиарике.
Ну если уже есть две камеры на одну картинку, то это перспектива, а значит качество анализа можно значительно улучшить, не?
Нет, конечно! По Вашей логике получается: если камер 3, то это уже четвертое измерение. А, если 4, то…
Кроме камер, нужна еще логика обработки этих камер в одной связке, а где Вы такую встречали?
Кроме камер, нужна еще логика обработки этих камер в одной связке, а где Вы такую встречали?
Нет, конечно! По Вашей логике получается: если камер 3, то это уже четвертое измерение. А, если 4, то…
Вы отрицаете тот факт, что при использовании 2-х камер можно получить depth для кадра?
Кроме камер, нужна еще логика обработки этих камер в одной связке, а где Вы такую встречали?
Ну вот, например, статья товарища Бененсона о применении стереокамер для повышения качества в задаче детектирования пешеходов…
Берешь C++ и пишешь эту логику.
вот кстати, пауков за год на подъезде было всего два.
а вот мотыльков… как только лампа сбоку перегорает — так в объектив ломятся как на обед
а вот мотыльков… как только лампа сбоку перегорает — так в объектив ломятся как на обед
А Вы не пробовали три камеры ставить? Какая вероятность, что на них всех за ночь не поселяться пауки?
Может и поселятся, но произойдёт это не одновременно. И в итоге появление паука в одной камере не вызовет тревоги, а появление человека (одновременно на двух камерах) — вызовет. Да, логику надо будет на чём-то написать, но это по крайней мере выглядит возможным.
Ну что уж вы так!" Один раз даже и правда люди в кадре были!
В сочетании со звуком это просто фильм ужасов какой-то…
P.S.… для тех, кто с системами наблюдения до сих пор не сталкивался ;)
P.S.… для тех, кто с системами наблюдения до сих пор не сталкивался ;)
интеловскую библиотеку Open CV
Как-то даже стало за державу обидно :) OpenCV уже давно не только «интеловская». Вот копипаста из файла LICENSE:
Copyright © 2000-2015, Intel Corporation, all rights reserved.
Copyright © 2009-2011, Willow Garage Inc., all rights reserved.
Copyright © 2009-2015, NVIDIA Corporation, all rights reserved.
Copyright © 2010-2013, Advanced Micro Devices, Inc., all rights reserved.
Copyright © 2015, OpenCV Foundation, all rights reserved.
Copyright © 2015, Itseez Inc., all rights reserved.
краткая история проекта OpenCV
Рад приветствовать коллегу! Кто бы сомневался, что встречу здесь всех, о ком пишу!
Естественно, я говорил об Интеле как о классике, именно он начинал: Copyright © 2000-2015, Intel Corporation, all rights reserved.
Другие подтянулись спустя несколько лет после закрытия Интелом направления. В системах видеонаблюдения используются тоже, в основном, старые интеловские алгоритмы, а не те направления, что появилось после.
Да Вы всё лучше меня знаете, просто решили зайти на огонек?
Спасибо! Очень рад!
Естественно, я говорил об Интеле как о классике, именно он начинал: Copyright © 2000-2015, Intel Corporation, all rights reserved.
Другие подтянулись спустя несколько лет после закрытия Интелом направления. В системах видеонаблюдения используются тоже, в основном, старые интеловские алгоритмы, а не те направления, что появилось после.
Да Вы всё лучше меня знаете, просто решили зайти на огонек?
Спасибо! Очень рад!
От того, еще интелового, OpenCV оставался разве что малоюзабельный ANSI C интерфейс библиотеки, который в версии 3.0 окончательно выкинули.
Сейчас разумеется интел также активно принимает участие в развитии библиотеки, но большая часть работы делается именно в Itseez. Большинство людей из топа контрибьютеров OpenCV являются сотрудниками этой компании.
Что такое «старые интеловские алгоритмы» не совсем понятно :) В библиотеке много чего появилось за последующие годы.
Вообще из публично доступных детекторов, ближе всего к state of the art библиотека Doppia от уже упомянутого мной Родриго Бененсона, а не OpenCV…
Сейчас разумеется интел также активно принимает участие в развитии библиотеки, но большая часть работы делается именно в Itseez. Большинство людей из топа контрибьютеров OpenCV являются сотрудниками этой компании.
Что такое «старые интеловские алгоритмы» не совсем понятно :) В библиотеке много чего появилось за последующие годы.
Вообще из публично доступных детекторов, ближе всего к state of the art библиотека Doppia от уже упомянутого мной Родриго Бененсона, а не OpenCV…
Здравствуйте. Хотелось бы сделать пару замечаний по поводу вашего анализа видеоаналитики от компании Синезис.
Да, многие алгоритмы видеоаналитики компании Синезис используют принцип выделение подвижных объектов на неподвижном фоне. Однако, думать, что алгоритмы только на этом и оканчиваются — это очень упрощенное представление. Так, мы используем адаптирующуюся модель фона, которая достаточно быстро подстраивается под изменения освещенности и прочие изменения на сцене. Хотя наши алгоритмы и не осуществляют распознавания всех объектов на сцене, однако мы применяем различные методики по минимизации ложных срабатываний от различных помех, характерных для уличного видеонаблюдения: насекомые, птицы, изменения освещенности, атмосферные осадки и прочее. Без этого наши алгоритмы были бы практически не применимы. И автор бы сам заметил бы это, если бы лучше проанализировал наши продукты.
К стати, синий квадратик на экране, который вы привели — это не еще одна зона, и минимальный размер объекта для детекции. И естественно, что уровни чувствительности не надо подбирать отдельно для ночи и дня — алгоритм сам прекрасно адаптируется.
По поводу OpenCV — это безусловно очень полезная библиотека компьютерного зрения и мы отдельные ее элементы иногда используем в своих проектах, однако в большинстве случаев без существенной доработки ее нельзя использовать в коммерческих решениях по соображениям точности и производительности.
С глубочайшим уважением, начальник отдела машинного зрения компании Синезис, Игорь Ермолаев.
Да, многие алгоритмы видеоаналитики компании Синезис используют принцип выделение подвижных объектов на неподвижном фоне. Однако, думать, что алгоритмы только на этом и оканчиваются — это очень упрощенное представление. Так, мы используем адаптирующуюся модель фона, которая достаточно быстро подстраивается под изменения освещенности и прочие изменения на сцене. Хотя наши алгоритмы и не осуществляют распознавания всех объектов на сцене, однако мы применяем различные методики по минимизации ложных срабатываний от различных помех, характерных для уличного видеонаблюдения: насекомые, птицы, изменения освещенности, атмосферные осадки и прочее. Без этого наши алгоритмы были бы практически не применимы. И автор бы сам заметил бы это, если бы лучше проанализировал наши продукты.
К стати, синий квадратик на экране, который вы привели — это не еще одна зона, и минимальный размер объекта для детекции. И естественно, что уровни чувствительности не надо подбирать отдельно для ночи и дня — алгоритм сам прекрасно адаптируется.
По поводу OpenCV — это безусловно очень полезная библиотека компьютерного зрения и мы отдельные ее элементы иногда используем в своих проектах, однако в большинстве случаев без существенной доработки ее нельзя использовать в коммерческих решениях по соображениям точности и производительности.
С глубочайшим уважением, начальник отдела машинного зрения компании Синезис, Игорь Ермолаев.
Так, мы используем адаптирующуюся модель фона, которая достаточно быстро подстраивается под изменения освещенности и прочие изменения на сцене.
А если не секрет, на каких работах вы основывались? Когда я игрался с задачей вычитания фона, лучших результатов мне удалось добиться используя алгоритм VIBE, но вроде как у него с патентами какие-то заморочки есть.
У нас собственные наработки — анализируется поведение фона на достаточно большом отрезке времени для каждого признака (серое изображение, градиент и т.д.), затем мы строим нижнюю и верхнюю границу таким образом, чтобы большинство значений лежало внутри этого интервала. Сигналом считается все то, что лежит за верхними и нижними границами. Использование в качестве признаков градиентов с усилением позволяет нам детектировать малоконтрастные объекты (поэтому как правило у нас нет проблем с со светлыми объектами на светлом фоне и темными на темном, исключая конечно ситуацию, когда и живой оператор начинает сомневаться). Использование многомасштабных признаков позволяет нам быть эффективнее связывать части слабоконтрастных объектов между собой, а также делает алгоритмы сегментации более эффективными в плане вычислений. Ну и мы активно используем SIMD инструкции процессоров для оптимизации вычислений — в среднем получается в 9 раз быстрее, чем без них.
P.S. Если интересно, то могу написать отдельную статью про это.
P.S. Если интересно, то могу написать отдельную статью про это.
> p.s.:
конечно интересно.
конечно интересно.
позволяет нам детектировать малоконтрастные объекты (поэтому как правило у нас нет проблем с со светлыми объектами на светлом фоне и темными на темном, исключая конечно ситуацию, когда и живой оператор начинает сомневаться)
Здесь есть маханькое НО. Чем сильнее пытаешься найти слабоконтрастное изменение, тем больше уровень помех. Учитывая стандартный алгоритм, все это опять подпадает под тему статьи — показать можно, а в жизни работать не будет.
На реальных объектах всё делается с точность наоборот — чувствительность загрубляют как могут, чтобы избавиться хоть от какой-то части помех.
Использование многомасштабных признаков позволяет нам быть эффективнее связывать части слабоконтрастных объектов между собой
Да нет там никаких особых признаков. Это же ВИДЕОНАБЛЮДЕНИЕ. Там есть только один признак — градации оттенков, и ВСЁ! Или у вас ренгеновские аппараты стоят?
Если вы внимательно посмотрите на картинку настройки видеоаналитики, которую вы привели у себя в статье, то увидите, что там не одна чувствительность, а две (к контрасту и к смещению). Так вот 99 % всех помех возникают и исчезают на одном и том же месте. А нас интересуют движущиеся объекты — это позволяет все эти помехи отсечь, хотя мы их естественно регистрируем на нижнем уровне наших алгоритмов.
Вообще, мысль здравая, но не в данном контексте. Если мы говорим про слабоконтрастность, то мы должны понимать, что где-то объект будет чуть контрастнее — где-то менее, ведь фон везде разный. В разных местах движущаяся цель будет проявляться по-разному. Поэтому конкретно в данном случае такая настройка лишь ухудшает чувствительность к движению слабоконтрастной цели.
Хотя для других форм помех такая настройка могла бы быть полезна, но тоже — лишь для детектора движения. Где же все-таки ваша видеоаналитика?
Хотя для других форм помех такая настройка могла бы быть полезна, но тоже — лишь для детектора движения. Где же все-таки ваша видеоаналитика?
По-моему такими фразами Вы зарывате себя еще глубже. Что такое «достаточно быстро подстраивается под изменения освещенности и прочие изменения на сцене»? Через сколько минут после изменения освещенности вы подстроитесь?
Какие «прочие изменения на сцене» вы игнорируете?
Надеюсь, это общая рекламная фраза: «мы применяем различные методики по минимизации ложных срабатываний от различных помех, характерных для уличного видеонаблюдения: насекомые, птицы, изменения освещенности, атмосферные осадки и прочее». Потому что все описанное ПРИ ВАШЕЙ МЕТОДИКЕ (ЖЕСТКАЯ ВИДЕОАНАЛИТИКА) в полной мере невозможно в принципе. Хотя да, какой-то процент и можно отсеять.
«что уровни чувствительности не надо подбирать отдельно для ночи и дня — алгоритм сам прекрасно адаптируется» — тогда непонятна задача этой настройки?
Какие «прочие изменения на сцене» вы игнорируете?
Надеюсь, это общая рекламная фраза: «мы применяем различные методики по минимизации ложных срабатываний от различных помех, характерных для уличного видеонаблюдения: насекомые, птицы, изменения освещенности, атмосферные осадки и прочее». Потому что все описанное ПРИ ВАШЕЙ МЕТОДИКЕ (ЖЕСТКАЯ ВИДЕОАНАЛИТИКА) в полной мере невозможно в принципе. Хотя да, какой-то процент и можно отсеять.
«что уровни чувствительности не надо подбирать отдельно для ночи и дня — алгоритм сам прекрасно адаптируется» — тогда непонятна задача этой настройки?
Компания Синезис делает не одну универсальную видеоаналитику для работы во всех возможных условиях, а несколько различных модулей для конкретных специфических условиях. То, что вы привели в обзоре — это ДЕТЕКТОР ДВИЖЕНИЯ — простейший алгоритм, который в большинстве случаев не требует настройки. Он специально создавался из более продвинутого уличного детектора путем упрощения и отбрасывания всего сложного, что требует настройки.
Типичное время адаптации алгоритма в ситуации (в темной комнате включили свет) — до 10 секунд. Для более плавного изменения освещенности (солнце зашло за облачко) — алгоритмы адаптируются на ходу без потери трекинга объектов.
По поводу фильтрации ложных объектов — мы не утверждаем, что фильтруем 100 процентов ложных срабатываний, однако фильтрация 90-95% ложных срабатываний уже делает наши алгоритмы практически применимыми. Все равно срабатывания детектора на конечном этапе как правило проверяются живым оператором.
Конечно можно основывать работу алгоритмов на детектировании на видео конкретных объектов путем работы различных детекторов, однако такой подход тоже имеет недостатки — низкая производительность, чувствительность только к узкому классу объектов (а реальность очень разнообразна). Так что для каждого задачи нужен свой подход. Пока не льзя сказать, что один подход однозначно лучше другого.
Типичное время адаптации алгоритма в ситуации (в темной комнате включили свет) — до 10 секунд. Для более плавного изменения освещенности (солнце зашло за облачко) — алгоритмы адаптируются на ходу без потери трекинга объектов.
По поводу фильтрации ложных объектов — мы не утверждаем, что фильтруем 100 процентов ложных срабатываний, однако фильтрация 90-95% ложных срабатываний уже делает наши алгоритмы практически применимыми. Все равно срабатывания детектора на конечном этапе как правило проверяются живым оператором.
Конечно можно основывать работу алгоритмов на детектировании на видео конкретных объектов путем работы различных детекторов, однако такой подход тоже имеет недостатки — низкая производительность, чувствительность только к узкому классу объектов (а реальность очень разнообразна). Так что для каждого задачи нужен свой подход. Пока не льзя сказать, что один подход однозначно лучше другого.
Компания Синезис делает не одну универсальную видеоаналитику для работы во всех возможных условиях, а несколько различных модулей для конкретных специфических условиях.
Там приведена универсальная ВАША настройка, которая используется во всех модулях ВАШЕЙ видеоаналитики. Т.е. всё, на чем базируется ВСЯ ВАША видеоаналитика.
То, что вы привели в обзоре — это ДЕТЕКТОР ДВИЖЕНИЯ — простейший алгоритм, который в большинстве случаев не требует настройки
Мною взято только описание вашей видеоаналитики. Без него тогда ничего в вашей видеоаналитике не остается. Может быть, вам все главы с заголовками «видеоаналитика» переименовать в «детектор движения»?
Для более плавного изменения освещенности (солнце зашло за облачко)
Вы реально считаете, что это плавное изменение освещенности? Тогда выйдите на улицу и проверьте! Вы не успеете моргнуть, как солнце резко выйдет или зайдет.
Типичное время адаптации алгоритма в ситуации (в темной комнате включили свет) — до 10 секунд.
10 секунд — без анализа?!
однако фильтрация 90-95% ложных срабатываний уже делает наши алгоритмы практически применимыми
Ваша детекция построена ВСЕГО ЛИШЬ на размерах и форме рамок движения. При таком подходе можно еще как-то фильтровать общие по всему кадру и равномерно распределенные помехи типа однородного дождя и снега. И то, если они не бликуют, особенно ночью на фонарях освещения.
Все равно срабатывания детектора на конечном этапе как правило проверяются живым оператором.
Так и обычное видеонаблюдение — тоже проверяются живым оператором. В каком месте у вас интеллект и видеоаналитика?
Так и обычное видеонаблюдение — тоже проверяются живым оператором. В каком месте у вас интеллект и видеоаналитика?— Без аналитики один оператор может следить за 10 камерами, с видеоаналитикой за 100 камерами. Выгода очевидна.
Ваша детекция построена ВСЕГО ЛИШЬ на размерах и форме рамок движения.— Это вы сами придумали?
А вообще какая-то странная статья. Как известно, задача детектирования объектов на данный момент не решена, существуют лишь алгоритмы, которые могут находить приближенное решение с некоторой точностью. Поэтому у любого алгоритма можно найти правильные 10 кадров, на которых он будет выдавать полный мусор, вместо адекватных результатов. Другой момент, что о точности алгоритма имеет смысл говорить в контексте тестовой выборки схожей с боевыми условиями эксплуатации. А вопрос о жучках/паучках — это вообще не к алгоритмам претензия, а к тем, кто плохо установил камеру.
В этом и проблема. Именно это и является темой статьи.
Детектирования объектов — еще как возможно, если создать идеальные лабораторные условия. Если под конкретный объект, под конкретное освещение, под… выставить соотв. настройки. Вы увидите идеальную работу, уверяю Вас. Но для реальной жизни — Вы правы — это пока невозможно в теории.
Тема статьи как раз про это.
Жучки — паучки тоже не зависят от того, кто ставил камеру. Они лишь реальность, при которой необходимо обеспечить работу видеоаналитики. Это обязательное условие. Так же как и дождь, снег, крупные блики, тени…
Детектирования объектов — еще как возможно, если создать идеальные лабораторные условия. Если под конкретный объект, под конкретное освещение, под… выставить соотв. настройки. Вы увидите идеальную работу, уверяю Вас. Но для реальной жизни — Вы правы — это пока невозможно в теории.
Тема статьи как раз про это.
Жучки — паучки тоже не зависят от того, кто ставил камеру. Они лишь реальность, при которой необходимо обеспечить работу видеоаналитики. Это обязательное условие. Так же как и дождь, снег, крупные блики, тени…
При разработке и тестировании алгоритмов видеоаналитики мы используем большие наборы видео, которые воспроизводят все возможные ситуации с помехами — мухи, птички, облачка, дождик, сильный ветер, день ночь и т.д. (сутки видео с сотнями, а иногда и тысячами различных ситуаций). И естественно в алгоритмах мы не можем затачиваться под конкретное видео, так как это приведет к тому, что на других видео качество резко упадет. Мы еще 5 лет назад успешно прошли тесты ILIDS (у нас есть соответствующий сертификат от министерства внутренних дел Великобритании), которые воспроизводят эти все эти ситуации.
Прежде чем писать обличительные статьи, рекомендую сначала ознакомиться с предметной областью.
Прежде чем писать обличительные статьи, рекомендую сначала ознакомиться с предметной областью.
Так Вы бы и показали реальные тесты.
И Вы, я так понял, не поняли самой статьи. Она не утверждает, что ваша система ничего не может. В ней конкретные ляпы вашего хелпа. При таком описании и таких картинках можно судить, что данный самолет летать не может.
Здесь обсуждение не того, что вы можете или не можете, а конкретных противоречий вашей инструкции. Если Вы пишете, что самолет без мотора и крыльев летает как ласточка, то это явный ляп, что я и подметил.
Ну, а сертификатов сейчас — каких только нет! Хотите от Буша дам сертификат?
И Вы, я так понял, не поняли самой статьи. Она не утверждает, что ваша система ничего не может. В ней конкретные ляпы вашего хелпа. При таком описании и таких картинках можно судить, что данный самолет летать не может.
Здесь обсуждение не того, что вы можете или не можете, а конкретных противоречий вашей инструкции. Если Вы пишете, что самолет без мотора и крыльев летает как ласточка, то это явный ляп, что я и подметил.
Ну, а сертификатов сейчас — каких только нет! Хотите от Буша дам сертификат?
Здесь обсуждение не того, что вы можете или не можете, а конкретных противоречий вашей инструкции.
Ну так обратились бы к нам, мы бы инструкцию подправили бы и еще вам спасибо сказали бы. Это небольшая техническая ошибка, а не повод писать статьи про то, что у нас ничего не работает.
Ну так обратились бы к нам, мы бы инструкцию подправили бы и еще вам спасибо сказали бы. Это небольшая техническая ошибка, а не повод писать статьи про то, что у нас ничего не работает.
В том то и дело, что это не техническая ошибка.
Если вы подправите инструкцию, в ней ничего не останется про видеоаналитику.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Часть 2 — Синезис. Почему демонстрация видеоаналитики в офисах так сильно отличается от реальной работы в жизни?