Автор преподносит свою придумку как нечто совершенно новое. Но есть же SIFT, ORB и другие дескрипторы, которые запечательно делают one-shot-learning путём использования мешка слов и запихивания их в какой-нибудь чёрный ящик типо SVM или случайных лесов (возможно, вместе с PCA или любым аналогом, если того хочется). Чем Ваше решение существенно отличается от указанных методов?
У меня были мысли по поводу продолжения исследования этого алгоритма по нескольким причинам. Его авторы говорят в последних статьях о том, что он чертовски хорошо параллелится. Они заявляют, что в ряде задач он себя показывает лучше, чем аналоги. Для качественной работы метода нужно подбирать параметр отталкивания. Алгоритм неустойчив относительно этого веса. В связи с этим он должен модифицироваться.
P.s. Если на такие исследования будет спрос, то я с радостью сделаю несколько обзоров. Но когда я проходил курс Юрия Кашницкого (ODS), это был мой тьюториал. Но он не вызвал практически никакого интереса со стороны участников курса. Поэтому на ресерч я забил.
У меня есть готовая статья. Но руки не доходят до того, чтобы её выкатить. Я там показал, что CLOPE в некотором смысле эквиваленте оптимизации метрики в пространстве tf-idf (точнее, только tf). Также пробовал кластеризовать группы ВК (по пересечениям id участников). Если интересно, то я могу этим заняться и выложить её сюда, на хабр. Ссылку прилагаю https://github.com/Hedgehogues/CLOPE
При помощи этих языков можно решать более или менее оптимально какую-нибудь прикладных задачу так, чтобы это конкурировало с классикой? Или это пока что баловство?
Могли бы Вы описать алгоритм подробнее? Или дать ссыли на код? Ваше описание очень общее и из него сложно понять, что, действительно, Вы сделали.
Кстати говоря, вот и они. https://habr.com/post/414459/
Совершенно случайно был опубликован пост ровно про то, что я сейчас говорил. Практически в один момент с Вами
Автор преподносит свою придумку как нечто совершенно новое. Но есть же SIFT, ORB и другие дескрипторы, которые запечательно делают one-shot-learning путём использования мешка слов и запихивания их в какой-нибудь чёрный ящик типо SVM или случайных лесов (возможно, вместе с PCA или любым аналогом, если того хочется). Чем Ваше решение существенно отличается от указанных методов?
Почему граф H склеен из 13 J. Когда там их всего 7? Либо, поясните, что есть в вашем понимании склейка.
Забыли, что шлагбаум скорее всего ещё и дешевле
Хорошо, спасибо за совет. Возьму на заметку. Наверное, решусь и кину.
У меня были мысли по поводу продолжения исследования этого алгоритма по нескольким причинам. Его авторы говорят в последних статьях о том, что он чертовски хорошо параллелится. Они заявляют, что в ряде задач он себя показывает лучше, чем аналоги. Для качественной работы метода нужно подбирать параметр отталкивания. Алгоритм неустойчив относительно этого веса. В связи с этим он должен модифицироваться.
P.s. Если на такие исследования будет спрос, то я с радостью сделаю несколько обзоров. Но когда я проходил курс Юрия Кашницкого (ODS), это был мой тьюториал. Но он не вызвал практически никакого интереса со стороны участников курса. Поэтому на ресерч я забил.
У меня есть готовая статья. Но руки не доходят до того, чтобы её выкатить. Я там показал, что CLOPE в некотором смысле эквиваленте оптимизации метрики в пространстве tf-idf (точнее, только tf). Также пробовал кластеризовать группы ВК (по пересечениям id участников). Если интересно, то я могу этим заняться и выложить её сюда, на хабр. Ссылку прилагаю https://github.com/Hedgehogues/CLOPE
Да, он самый. Что про этих ребят скажете?
В плане? Не понял коммента. Т.е. А чем по Вашему является CLOPE? Разве не алгоритмами кластеризации категориальных объектов?
Вы видели алгоритм CLOPE? Он именно про эту тему.
Я не понял, что понимается под искромсаными картинками. Делим каждую картинку на части по 7х7. Дальше что делаем с ними?
А за что так активно минусуют человека?
Описался, спасибо
Подскажите, почему матожидание от куба дисперсии оказывается нулевое
Не расставили… Так это просто не знали. Теперь-то мы знаем, куда за цветметом ехать. Машина выехала...
При помощи этих языков можно решать более или менее оптимально какую-нибудь прикладных задачу так, чтобы это конкурировало с классикой? Или это пока что баловство?
Быстро. Шта? А что насчет подтверждено транзакций, на которое тоже время уходит?
Давно хабр стал площадкой для объявлений и рекламы?
https://www.debuggex.com/
502