Комментарии 27
Хороший, годный пост на хорошую, правильную тему.
«Задача классификации (или, как ее иногда называют, задача кластеризации)»
Есть разница. При классификации набор классов задан с самого начала, по-моему.
Есть разница. При классификации набор классов задан с самого начала, по-моему.
Вы правы, при классификации классы почти всегда известны изначально. Однако же, не всегда.
НЛО прилетело и опубликовало эту надпись здесь
В Desicion trees совсем другой алгоритм и совсем другие задачи, поэтому нельзя утверждать что они используются только для классификации, так же как и SVM может использоваться для многих задач: классификации, кластеризации, предсказания свойства
Вот тут www.csie.ntu.edu.tw/~cjlin/libsvm/ есть практический пример и демо
НЛО прилетело и опубликовало эту надпись здесь
А где видео?
Автору плюс. Скажите, а есть ли какие-нибудь критерии выбора ядра. Я имею ввиду какие-либо аналитические методы. Или только на-глаз?
Кстати, на твиттере промелькнуло: 25 типов kernel-функций.
Интересно, надо сохранить на будущее :)
Я не встречал нормальных работающих методов для выбора ядра. Видел лишь пару статей на тему «имеется конкретное ядро с какими-то параметрами. Как выбрать эти параметры наилучшим способом для уменьшения ошибки классификации.»
Я не встречал нормальных работающих методов для выбора ядра. Видел лишь пару статей на тему «имеется конкретное ядро с какими-то параметрами. Как выбрать эти параметры наилучшим способом для уменьшения ошибки классификации.»
Если бы еще и kernel можно было всегда выбрать просто все бы задачи по классификации были бы уже решены) Не бывает универсального классификатора к сожалению. Так что kernel функцию придется всегда выбирать в зависимости от задачи. В целом если feature space уже изначально досточно большой обычно используется линейный kernel (что логично).
Когда изучала данную тему мне очень помогли слайды from Andrew Moore www.autonlab.org/tutorials/
(может не самые стильные зато доступные — вообще рекомендую)
Когда изучала данную тему мне очень помогли слайды from Andrew Moore www.autonlab.org/tutorials/
(может не самые стильные зато доступные — вообще рекомендую)
Насколько мне известно, некоторые дополнительные материалы по теме можно найти, например, в книге Фукунга К. «Введение в статистическую теорию распознавания образов».
Статья хорошая. Статистические методы распознавания сейчас нередко игнорируются в пользу нейронных сетей, а это не всегда правильно.
Статья хорошая. Статистические методы распознавания сейчас нередко игнорируются в пользу нейронных сетей, а это не всегда правильно.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий
Классификация данных методом опорных векторов