16 результат мой, хотя думал, что буду ниже — на тренировочных данных результаты были хуже. Это связано с тем, что финальные данные по качеству отличались от тренировочных. То есть разработанные и отлаженные на тренировочных данных алгоритмы работали на финальных данных по другому.
Моменты, которые не понравились — как уже сказал непонятки с данными. Также не очень хорошая поддержка во время конкурса, мой вопрос по финальным данным просто проигнорирован. Думаю, можно было бы выделить человека, который бы чаще мониторил форум и отвечал на вопросы. Защиты от дурака не было — ряд команд по невнимательности отправили ответы только лишь для части финальных данных, соответственно получили низкий результат.
Но несмотря на недочеты, спасибо Яндексу за интересный конкурс и хорошую разминку для мозгов! :)
Надо будет попробовать.
Кстати вспомнил конкретику — обработка видео с вебки в реалтайме. Делалось в Matlab Simulink — там нещадно тормозило. C++ OpenCV позволила добиться приемлемых результатов. Правда тут не m-язык…
Я думаю, что все их built-in функции достаточно хорошо оптимизированы. А вот длинные m-скрипты заставляют его задуматься. После портирования на C++ скорость вырастает. Правда я никогда не задавался вопросом, что именно тормозит сильнее всего.
Только высокопроизводительная эта система в плане скорости реализации на ней алгоритмов. Скорость выполнения оставляет желать лучшего, но для многих задач это не критично. :)
А что конкретно интересует?) Она в моем Цианогене тут: Настройки — CyanogenMod settings — Display — Автоматическая яркость (язык названий пунктов глючит, думается, из-за конкретной прошивки — для HD2 родного цианогена нет). Там настраивается усредняющий фильтр и пользовательские уровни, все пункты с подсказками, вроде должны быть понятны.
Я влюбился в Цианоген из-за возможности точной настройки авторегулировки яркости. Пользую на HTC HD2. Про некоторые функции не знал, просветили! ) И спасибо за крутую тему, интересно смотрится.
Попробовал так: генерим шум, не зеркалим, объединяем слои, make seamless — по моему остается краевой артефакт в одном из углов. Мне больше понравилось, если после объединения равномерно обрезать края со всех сторон. В общем для данной текстуры работает!
Поддержу автора. Вы видимо сравниваете самую первую картинку с последней. Сравнивать же надо вторую, смазанную и зашумленную, с последней. Потери тонких градиентов лично я не вижу. Шум ушел — это плюс. Но, к сожалению, компенсации смаза тоже не видно…
Троллиную кожу удачно получилось выделить, также можно и плечи выделить, а потом из маски уже найти контур. Кстати, тестил scilab, морфологии жалко нету.
На самом деле яркость я отбросил, чтобы избавиться от градиента освящения, но что-то не очень получилось.
Хм, засветка есть, и правда… Только почему белый цвет не несет информации? Это блики от объектов — фон ведь не бликует. Соответственно, кмк, по бликам их вполне можно определять.
И это, как я понимаю, изначально полагалось вручную обрабатывать? Жесть!
Еще подход — без перехода к оттенкам серого. Как нетрудно заметить, изображение состоит по сути из трех цветов — белого (внутри объектов), черного (границы объектов) и фиолетового (фон). Переводим изображение в цветовое простанство HSV — тон, насыщенность, яркость. Яркость нам не нужна, используем только информацию о цвете. Кластеризуем точки изображения в координатах Тон-Насыщенность методом К-средних по метрике Евклида, вот что получается.
Видны косяки, связанные с градиентом освещения — внизу изображение слишком светлое, а сверху-слева слишком темное. Но освещение, я так понимаю, можно настроить… Белым — наши объекты, заметьте даже очень мелкие выделились.
Такой метод можно использовать наравне с остальными и затем объединить результаты.
Моменты, которые не понравились — как уже сказал непонятки с данными. Также не очень хорошая поддержка во время конкурса, мой вопрос по финальным данным просто проигнорирован. Думаю, можно было бы выделить человека, который бы чаще мониторил форум и отвечал на вопросы. Защиты от дурака не было — ряд команд по невнимательности отправили ответы только лишь для части финальных данных, соответственно получили низкий результат.
Но несмотря на недочеты, спасибо Яндексу за интересный конкурс и хорошую разминку для мозгов! :)
Кстати вспомнил конкретику — обработка видео с вебки в реалтайме. Делалось в Matlab Simulink — там нещадно тормозило. C++ OpenCV позволила добиться приемлемых результатов. Правда тут не m-язык…
зы. Уфе привет! ;)
Именно так и делал. Без подсветки, естественно.
Морфологии нет в базовом пакете, в сети вроде упоминается какой то дополнительный пакет, надо будет заняться.
Scilab кстати на скриншотах у разработчиков очень многообещающе смотрится
но под Ubuntu у меня такой картинки получить пока не удалось…
Хм, засветка есть, и правда… Только почему белый цвет не несет информации? Это блики от объектов — фон ведь не бликует. Соответственно, кмк, по бликам их вполне можно определять.
Еще подход — без перехода к оттенкам серого. Как нетрудно заметить, изображение состоит по сути из трех цветов — белого (внутри объектов), черного (границы объектов) и фиолетового (фон). Переводим изображение в цветовое простанство HSV — тон, насыщенность, яркость. Яркость нам не нужна, используем только информацию о цвете. Кластеризуем точки изображения в координатах Тон-Насыщенность методом К-средних по метрике Евклида, вот что получается.
Видны косяки, связанные с градиентом освещения — внизу изображение слишком светлое, а сверху-слева слишком темное. Но освещение, я так понимаю, можно настроить… Белым — наши объекты, заметьте даже очень мелкие выделились.
Такой метод можно использовать наравне с остальными и затем объединить результаты.