Комментарии 2
Интересно было бы сравнить полученные модели с градиентным бустингом, случайным лесом или даже простым деревом решений. Немонотонность таргета по фичам не проблема для этих моделей, поэтому их качество не должно сильно улучшиться от описанных преобразований. Последние актуальны для линейной и логистической регрессий, где классы разделяются простейшим образом — гиперплоскостью
0
Зарегистрируйтесь на Хабре , чтобы оставить комментарий
Как в условиях недостатка данных улучшить качества классификатора