Хабр Курсы для всех
РЕКЛАМА
Практикум, Хекслет, SkyPro, авторские курсы — собрали всех и попросили скидки. Осталось выбрать!
Пока трудно сказать, что за катастрофа происходит при превышении значения 168, по какой причине качество предсказания так резко и внезапно ухудшается. В остальном — мы не видим сколько-нибудь значительных изменений. Для очистки совести посмотрим, как будет изменяться качество предсказания при уменьшении варьируемого параметра.
Очень жаль, но, видимо, нейросети — модель полезная и хорошая, но не для нашей задачи. Впрочем, если кто-то умеет для нее получить хороший результат с помощью моделей нейросетевого типа, то жду ссылок на код в комментариях, а мы переключимся на более консервативные подходы.
Значит очередная проба «для очистки совести» помогла, как ни удивительно видеть качество немонотонно зависящее от значения гиперпараметра.
Вы слишком многого хотите от автора, который пишет:
В статье, насколько возможно, используется русскоязычная терминология, выбранная автором на основе буквальных переводов англоязычных терминов и устоявшегося в сообществе сленга.
но не знает таких терминов как "фича признак (feature)", "фичселект выбор признаков (feature selection)", "пример выборка (sample)" и т.д.

Ну, и на заборе тоже что-то написано. Это ведь не значит, что это верно? Чистота в языке свидетельствует о ясности мышления, и обратное тоже верно.
Ммм… eсть генеральная совокупность, есть её выборка, есть элементы этой выборки. В чём проблема?
Полностью согласен с Вами, по личному опыту, такое часто бывает, когда типичный программист воображает себя дата саентистом...)
Настройка модели машинного обучения: подбор признаков и оптимизация гиперпараметров