Pull to refresh

Comments 27

Хороший, годный пост на хорошую, правильную тему.
UFO just landed and posted this here
«Задача классификации (или, как ее иногда называют, задача кластеризации)»

Есть разница. При классификации набор классов задан с самого начала, по-моему.
Вы правы, при классификации классы почти всегда известны изначально. Однако же, не всегда.
UFO just landed and posted this here
Поправил, спасибо за уточнение.
В Desicion trees совсем другой алгоритм и совсем другие задачи, поэтому нельзя утверждать что они используются только для классификации, так же как и SVM может использоваться для многих задач: классификации, кластеризации, предсказания свойства
Вроде бы у них на сайте были еще разные интересные data sets для тестирования классификатора.
UFO just landed and posted this here
Я еще планирую про классификатор RVM (Relevance Vector Machine) написать. А после этого можно и обзорно-сравнивающую статью сделать.
Про RVM было бы интересно. В целом +1.
Наверное, браузер по каким-то причинам не отображает. Оригинальная ссылка вот.
Спасибо. Теперь кстати и браузер отображает.
Автору плюс. Скажите, а есть ли какие-нибудь критерии выбора ядра. Я имею ввиду какие-либо аналитические методы. Или только на-глаз?
Интересно, надо сохранить на будущее :)
Я не встречал нормальных работающих методов для выбора ядра. Видел лишь пару статей на тему «имеется конкретное ядро с какими-то параметрами. Как выбрать эти параметры наилучшим способом для уменьшения ошибки классификации.»
Если бы еще и kernel можно было всегда выбрать просто все бы задачи по классификации были бы уже решены) Не бывает универсального классификатора к сожалению. Так что kernel функцию придется всегда выбирать в зависимости от задачи. В целом если feature space уже изначально досточно большой обычно используется линейный kernel (что логично).

Когда изучала данную тему мне очень помогли слайды from Andrew Moore www.autonlab.org/tutorials/
(может не самые стильные зато доступные — вообще рекомендую)
Ага, no free lunch theorem :)
Посмотрел слайды, неплохо написано. И многие интересные темы освещены.
Насколько мне известно, некоторые дополнительные материалы по теме можно найти, например, в книге Фукунга К. «Введение в статистическую теорию распознавания образов».
Статья хорошая. Статистические методы распознавания сейчас нередко игнорируются в пользу нейронных сетей, а это не всегда правильно.
Спасибо за ссылку, обязательно гляну.
Да, мне тоже не всегда нравятся нейронные сети :)
Самая главная статья это В.М. Вапник «The Nature of Statistical Learning Theory»
Только вот в перечислении ядер зачем-то отделено Гауссово ядро от ядра на основе радиально-базисной функции, хотя они эквивалентны. Пруфлинк
Only those users with full accounts are able to leave comments. Log in, please.