Comments 4
Спасибо, очень хорошая статья! Жду продолжения!
Спасибо, вы славно потрудились. Хорошая работа.
Привет!
Огромное спасибо за публикацию. По винтикам разобран чёрный ящик, в который большинство людей даже не думают совать нос.
А правда что MSE — это энтропия? MSE это логарифм правдоподобия в предположении гауссового распределения ошибки. А энтропиия — это матожидание количества информации. p * log p и всё такое… Ну, то есть, logloss — это энтропия. Может, лучше говорить «в качестве функции потерь сейчас мы возьмём MSE»?
ввиду -> в виду :)
Огромное спасибо за публикацию. По винтикам разобран чёрный ящик, в который большинство людей даже не думают совать нос.
А правда что MSE — это энтропия? MSE это логарифм правдоподобия в предположении гауссового распределения ошибки. А энтропиия — это матожидание количества информации. p * log p и всё такое… Ну, то есть, logloss — это энтропия. Может, лучше говорить «в качестве функции потерь сейчас мы возьмём MSE»?
ввиду -> в виду :)
Sign up to leave a comment.
Пишем XGBoost с нуля — часть 1: деревья решений