Comments 7
Думаю, все через несколько конкурсов приходят к своему фреймворку для сохранения промежуточных результатов и быстрых усреднений.
Классная история успеха: начать в феврале и уже третье место в июле!
Но решение очень подробное и интересное, спасибо!
Для random forest и extra trees от sklearn такой возможности нет, так что пришлось переложить подбор количества деревьев на hyperopt, который, похоже, за недостаточное количество попыток с задачей полностью не справился.
В отличие от градиентного бустинга, эти алгоритмы не переобучаются с ростом числа деревьев (каждое дерево строится независимо от прошлых результатов), поэтому подбирать, собственно, нечего. Надо просто брать разумно большое количество деревьев (с учетом технических возможностей), да и все.
что значит «субмит»?
Монументально!
Sign up to leave a comment.
ML Boot Camp V, история решения на 3 место