Как стать автором
Обновить

Комментарии 2

Интересно было бы сравнить полученные модели с градиентным бустингом, случайным лесом или даже простым деревом решений. Немонотонность таргета по фичам не проблема для этих моделей, поэтому их качество не должно сильно улучшиться от описанных преобразований. Последние актуальны для линейной и логистической регрессий, где классы разделяются простейшим образом — гиперплоскостью

Спасибо большое за идею про сравнение разных методов. В данной статье ставилась цель улучшить качество классификатора, построенного методом логистической регрессии.

 

Зарегистрируйтесь на Хабре , чтобы оставить комментарий

Публикации

Истории