Всё что ниже этой фразы действительно дало хуже результат. Далее ухудшение дала замена модели нейросети, а не трюк с "доверительными вероятностями". С ним было бы лучше, чем без.
Не совсем так.
Она ухудшила предварительный результат, поэтому я решил не рисковать, и выбрал обычное среднее.
А зря, т.к. финальный результат это бы улучшило.
Вот табличка logloss по различным аггрегирующим функциям:
Не экспериментировал со способами нормализации.
Использовал классическое «минус среднее, поделить на среднеквадратичное отклонение»
А вообще да, стоило попробовать что-то ещё, как минимум поделить на (max — min)
Всё что ниже этой фразы действительно дало хуже результат. Далее ухудшение дала замена модели нейросети, а не трюк с "доверительными вероятностями". С ним было бы лучше, чем без.
Не совсем так.
Она ухудшила предварительный результат, поэтому я решил не рисковать, и выбрал обычное среднее.
А зря, т.к. финальный результат это бы улучшило.
Вот табличка logloss по различным аггрегирующим функциям:
я выбирал что из этого выбрать в последний момент
Использовал классическое «минус среднее, поделить на среднеквадратичное отклонение»
А вообще да, стоило попробовать что-то ещё, как минимум поделить на (max — min)