Pull to refresh

Comments 28

Это похоже на хорошо известное «классическое» компьютерное зрение — гистограмму направленных градиентов, что на пальцах объяснено, скажем, тут youtu.be/riLQCudri7Q?t=46m43s

Кроме того, нейросети вполне себе демонстрируют One-Shot learning за счет transfer learning (гуглится множество статей).
Ну не стоит так сразу отказывать автору в новаторстве. Вот лично я раньше не встречал примеров использования векторизации для классификации изображений. Упомянутый вами HOG это, всё-таки, не тоже самое, что векторное представление.
Насколько я понимаю, что бы получить «One-Shot learning за счет transfer learning», вам для начала потребуется подходящая предобученная «родительская» сеть (и большой мешок удачи :). А в данном случае вроде бы не требуется никаких сторонних классификаторов.
Вообще я так подозреваю что такая техника давно применяется и гораздо глубже прорабатывается в задаче распознавания рукописного текста. Еще в 2000 году, когда я писал диплом, встречал нечто похожее — использование взаимосвязи векторов для понижения размерности пространства.

Выделить контрастами вектора из картинки, снизить размерность и найти ближайшую точку к образцу в новом пространстве — это в принципе все тривиально, и достаточно прозрачно, как и хотел автор.

Сильная идея — это кластеры, т.е. использование фрактального разбиения. Жаль что нет подробностей. И еще нет подробностей, как устраняются инвариантность к базовым преобразованиям картинки: вращениям (в том числе взаимным между кластерами), масштабу, взаимному расстоянию, параллаксу и т.д. Тут нейросети хорошо справляются, но и чисто математические решения, думаю, есть.
Чем то похоже но суть совсем не та. Я не делю изображение на ячейки и не привязываюсь к размеру блока, соответственно нормализация потом идет по другому. Потом, насколько я понимаю этот алгоритм привязан к конкретному положению объекта, т.е. если его развернуть то ничего не получиться? У меня не привязано. К сожалению мне не разрешили опубликовать ссылку на приложение в маркете без этого статья не интересна.
Статья была бы как раз интересна, если бы описывались все эти подробности, как обеспечивается инвариантность к положению, повороту, масштабу, как формируются кластеры и примеры внутренней кухни алгоритма с красивыми картинками. А ссылка на приложение как раз не так и важна. Сейчас же ничего не описано по сути.
Инвариантность к положению, повороту и масштабу обеспечивается за счет того, что у меня анализируются не сами вектора в системе координат изображения, а связи между векторами, связи между связями и и.д. до бесконечности. Однако Вы правы, статья не все раскрывает, учту на будущее.
Потом, насколько я понимаю этот алгоритм привязан к конкретному положению объекта, т.е. если его развернуть то ничего не получиться?

Что мешает нормализовать по направлению, как это делают в SIFT, и получить rotated invariant дескриптор региона?

Идея хорошая, как альтернатива. Один нюанс, на RGB, если разложить на 3 картинки, в каких то случаях соотношения цвета и теней могут быть разные линии, например (могу с цветом ошибаться) на B (из RGB) самая темная картинка из оттенков кожи, т.е. при сильном освещении в области пересвета будет очень четкая картинка в синем спектре.
Это я о том, что если усложнить алгоритм в 3 раза т.е. делать это все в 3х цветах отдельно, то эффективность при разном освещении разных оттенков цвета вырастет. А далее можно прикрутить комбинирование, замену.
Есть более простое решение: получить градиенты по всем 3-м каналам и взять максимум для каждой точки.
Ну я что такое и имел виду, просто описал сложно. Имелось виду, что использовать все 3 канала вместо серого, который получается при разном освещении разный при (Red+Green+Blue)/3.
Для перевода в черно-белый лучше не усреднять каналы, а использовать формулу
Gray = (Red * 0.299 + Green * 0.587 + Blue * 0.114).

А можно на код приложения взглянуть?

К сожалению нет. Код большой и находится в состоянии перманентной оптимизации и экспериментов. Поэтому плохо читаем
Есть набор стандартных тестов по проверке распознавания/регистрации изображений
Чувствительность к повороту, смещению, освещенности, замыливанию, проективным искажениям,, степени компрессии и тд. Без такого сравнения с другими методами регистрации (чем Вы на самом деле и занимаетесь) изображений этот текст(метод) слишком голословный

Автор преподносит свою придумку как нечто совершенно новое. Но есть же SIFT, ORB и другие дескрипторы, которые запечательно делают one-shot-learning путём использования мешка слов и запихивания их в какой-нибудь чёрный ящик типо SVM или случайных лесов (возможно, вместе с PCA или любым аналогом, если того хочется). Чем Ваше решение существенно отличается от указанных методов?

Кстати говоря, вот и они. https://habr.com/post/414459/


Совершенно случайно был опубликован пост ровно про то, что я сейчас говорил. Практически в один момент с Вами

Прочитал про эти методы, но там же поиск «особых точек», а у меня совершенно не так. У меня все точки одинаково «особые» и покрываются векторами, причем количество векторов стремиться к минимуму. Ну в в принципе можно сказать что у меня «поиск особых векторов». Примерно это можно сформулировать так: вот вам коробок спичек, расположите минимальное количество спичек так чтобы читались основные контуры рисунка и было понятно что нарсовано
Почитайте про Radon Transform.( ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B5%D0%BE%D0%B1%D1%80%D0%B0%D0%B7%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5_%D0%A0%D0%B0%D0%B4%D0%BE%D0%BD%D0%B0 )
Можно использовать более экономный Hough Transform ( ru.wikipedia.org/wiki/%D0%9F%D1%80%D0%B5%D0%BE%D0%B1%D1%80%D0%B0%D0%B7%D0%BE%D0%B2%D0%B0%D0%BD%D0%B8%D0%B5_%D0%A5%D0%B0%D1%84%D0%B0 )
Ваш алгоритм в его первой части реализуется поиском локальных максимумов в пространстве «радона». А вторую часть Вы стесняетесь описывать. Изобретение велосипедов конечно интересное занятие, но не мешает познакомиться с известными алгоритмами обработки изображений.
можно искать прямые алгоритмом Хафа, да. Есть и другие методы. И что? Я знаю что есть множество разных методов, фрейморки и библиотеки типа OpenCV в которых они реализованы. Написать код который проводит линии по градиенту быстрее чем статью в википедии про этот алгоритм. Если бы я сделал только это я бы назвал статью так: «Алгоритм который ищет линии в изображении». Но есть одна проблема — в изображении можно вписать очень много линий и это не имеет смысла — просто вместо точек появится много линий.
Еще раз. Есть набор стандартных тестов в OpenCV. Покажите как Ваш код с ними справляется.
Вот ссылка на приложение можно скачать и потестить сколько нужно: play.google.com/store/apps/details?id=ru.travelfood.bitmaps

По поводу стандартных тестов мое мнение такое: у меня есть задача, распознавать продукцию на ленте (упрощенно) я смотрю что есть прежде всего из коммерческих решений, потом из алгоритмов и готовых библиотек, не нахожу того что может приемлемо выполнять мою задачу так чтобы это реально работало а не на бумаге и не в виде картинок. В результате придумываю и пишу свое. Оно работает как мне надо. Конец. Может я конечно круто ошибся и где то существует вагон готовых к промышленному применению решений которые можно пощупать на реальных примерах сразу, тогда да — пардон.
Оно работает как мне надо

Да пожалуйста, вопрос нужно это кому нибудь еще кроме Вас :)
Я утверждаю, что на любых картинках из стандартных тестов Ваш алгоритм работать не будет. От слова «совсем».

Могли бы Вы описать алгоритм подробнее? Или дать ссыли на код? Ваше описание очень общее и из него сложно понять, что, действительно, Вы сделали.

Да. Комментарий про алгоритм Хафа, дал мне понять что имеет смысл описать алгоритм подробнее. Я сделаю несколько отдельных постов с ссылкой на этот пост про каждый алгоритм который я использовал: отдельно про выделение главных градиентов, отдельно про расположение векторов и про то как я анализирую связи между векторами

Интересно, Вы что-нибудь описали…

Алгоритм обвода контуров отрезками такой:
1 шаг: ищем самую большую точку по контрасту
2 шаг: от нее строим линию по алгоритму Брезенхема длиной N, при этом точки попадающие в эту линию должны а) укладываться в ± 1 сигма по нормальному распределению
б) не должны содержать точки других таких линий(пересечения)
3 шаг: вращаем линию по кругу до достижения максимума по контрасту
4й шаг: от конца найденой линии строим новую линию, но вращение уже не на 360 градусов а ограничено ±30градусов
повторяется пока на конце можно найти новую линию, если нет то снова на 1 шаг. Если набирается сумма контрастов больше определнно предела от суммы контрастов
то алгоритм завершается. Вот такой алгоритм. Я его подобрал опытным путем на датасетах с котрыми работал. Этому алгориту предшествует другой алгоритм который выделяет контрастные области — делает их более компакными
и по ним уже работает алгоритм построения линий.
Sign up to leave a comment.

Articles