Comments 5
Теперь каждая задача easy на литкоде будет выложена отдельным постом?
А в реальной жизни эта задача для чего решалась?
Звучит так, как будто мы оптимизируем какое-то поведение этими порогами.
Есть многомерные данные. Признаки непрерывные. Можно построить логистическую регрессию для предсказания выходного признака. Но чтобы объяснить, почему модель сработала на данных именно так, производят дихотомизацию признаков. И теперь задача - выбрать пороги и веса так, чтобы точность модели была как можно выше. Здесь решается подзадача выбора пороговой области и фильтрующего свойства в этой области. Потому что, обозначив это свойство за новый бинарный признак и прибавив этот признак с весом, мы добьемся того, что решающая функция увеличится, и модель изменит предсказание с 0 на 1.
Нахождение порогов с оптимальным балансом классов