Обновить

Подбор важности фич для k-nearest neighbors (ну или других гиперпараметров) спуском похожим на градиентный

Время на прочтение18 мин
Охват и читатели5.5K
Всего голосов 8: ↑8 и ↓0+6
Комментарии2

Комментарии 2

Вы практически переизобрели metric learning.
http://contrib.scikit-learn.org/metric-learn/introduction.html


И у дерева и knn есть серьёзное отличие: параметрический или нет, метод.


Входная концепция, масштабировать по важности дерева мне понравилась, не делал так :)

Главное, что взять от дерева важности очень быстро получается. Простое дерево учится за считанные миллисекунды.
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации