Comments 6
Спасибо за статью. Осилил пока половину, вечером дочитаю. ИМХО можно было смело части на две-три разделить :)
0
Отличная статья, крайне интересно было прочесть. Поначалу, когда увидел тезис об использовании линейной модели для выбора предикторов, думал придется поспорить, но потом, вопрос был раскрыт очень качественно.
Про vif как показатель мультиколлинеарности, а так же lasso/en в этом контексте было бы тоже интересно посмотреть, впрочем статья и так огромная.
Спасибо.
Про vif как показатель мультиколлинеарности, а так же lasso/en в этом контексте было бы тоже интересно посмотреть, впрочем статья и так огромная.
Спасибо.
0
Спасибо! Некоторые моменты не раскрыл. Да, линейные модели с регуляризатором сильны. Думаю, что многие практические проблемы решаются линейно. Редко важно взаимодействие. А нелинейность это на практике вообще редкость. Но для академических целей эти вопросы затрагивались. Кроме того иногда это важно и на практике.
Если будут еще нюансы для для обсуждения — пишите.
Если будут еще нюансы для для обсуждения — пишите.
0
Недавно наталкивался на функцию y= a (1-x)^b, которую надо было подгонять под эспериментальные данные. Обнаружил, что оптимизация по a и b работают как-то странно. Можно найти самые оптимальные а и b, чтобы сумма квадратов отклонений была самой минимальной. Потом можно заметно изменить b и найти оптимальное а, но сумма квадратов отклонений от эксперимента почти не меняется.
Для интерполяции это не имеет большого значения, а вот для экстраполяции есть большая разница, так как b входит в степень. То есть когда есть всякие сильные зависимости и сингулярности, то стандартные методы могут плохо работать.
Для интерполяции это не имеет большого значения, а вот для экстраполяции есть большая разница, так как b входит в степень. То есть когда есть всякие сильные зависимости и сингулярности, то стандартные методы могут плохо работать.
+1
Sign up to leave a comment.
Методические заметки об отборе информативных признаков (feature selection)