Как стать автором
Обновить

Комментарии 3

Для bias-variance tradeoff в академической среде, кажется, закрепился перевод "смещение и разброс" (https://alexanderdyakonov.wordpress.com/2018/04/25/смещение-bias-и-разброс-variance-модели-алгорит/). Называть разброс случайной ошибкой кажется не совсем правильным, потому что могут возникнуть неверные ассоциации со случайным шумом в данных (noise), к которым разброс модели, как характеристика алгоритма, имеет лишь косвенное отношение. Хотя у Ына в принципе не совсем традиционный подход по части avoidable/unavoidable bias.

Я взял определения случайной и систематической ошибки из собственного «физико-технического» прошлого. Где они являлись аналогом bias и variance в физическом эксперименте. При этом так определяемые ошибки имеют точно такое же математическое выражение (относительно истинного значения измеряемой величины), что и bias и variance относительно истинного значения класса классифицируемого алгоритмом примера (дисперсия и мат. ожидание смещения относительно истинного значения).
Т. е. формально ошибки нет (опустим тот нюанс, что Эндрю Ын переопределил эти два понятия и они стали у него чем-то третьим). Однако, я согласен с вами, что в русскоязычной литературе по машинному обучению, по-видимому, закрепились понятия «смещения» и «разброса». Специально посмотрел работы Воронцова К. В. (главный популяризатор ML в наших краях). Должен согласиться с вашим замечанием и буду переделывать перевод.
Спасибо за помощь!
во всех этих главах одно и тоже повторяет, два-три тезиса
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории