Только на моей практике все более продвинутые методы заполнения (от KNNImputer до IterativeImputer) очень далеко не всегда дают лучший результат, а если и дают, то они просто вычислительно не очень оправданы.
Да ещё и попробуй в них оптимальные гиперпараметры подбери, часто геморроя больше, чем прироста качества.
Определения не обязательно состоят из одного предложения :) Там ведь сразу после этого идёт соответствующее уточнение. Но я поправил формулировки, чтобы они вызывали меньше разночтений, спасибо.
Со всем согласен)
Только на моей практике все более продвинутые методы заполнения (от KNNImputer до IterativeImputer) очень далеко не всегда дают лучший результат, а если и дают, то они просто вычислительно не очень оправданы.
Да ещё и попробуй в них оптимальные гиперпараметры подбери, часто геморроя больше, чем прироста качества.
Об этом есть в разделе "Форматирование числовых значений" :)
Верно, благодарю, исправил.
Определения не обязательно состоят из одного предложения :) Там ведь сразу после этого идёт соответствующее уточнение.
Но я поправил формулировки, чтобы они вызывали меньше разночтений, спасибо.
Наверное, никто, т.к признаки изначально отмасштабированы, об этом написано.
Да, и не только разные модели, но и разные инструменты feature selection даже для одной модели могут показывать разные результаты)
Если есть время и ресурсы, то надо экспериментировать.
В дополнение к @AndrewBalakirev - даже так, без круглых скобок, всё равно кортеж)