Comments 7
UFO just landed and posted this here
Думаю, все через несколько конкурсов приходят к своему фреймворку для сохранения промежуточных результатов и быстрых усреднений.
0
Классная история успеха: начать в феврале и уже третье место в июле!
Но решение очень подробное и интересное, спасибо!
0
Для random forest и extra trees от sklearn такой возможности нет, так что пришлось переложить подбор количества деревьев на hyperopt, который, похоже, за недостаточное количество попыток с задачей полностью не справился.
В отличие от градиентного бустинга, эти алгоритмы не переобучаются с ростом числа деревьев (каждое дерево строится независимо от прошлых результатов), поэтому подбирать, собственно, нечего. Надо просто брать разумно большое количество деревьев (с учетом технических возможностей), да и все.
+1
что значит «субмит»?
0
Монументально!
0
Sign up to leave a comment.
ML Boot Camp V, история решения на 3 место