Для борьбы с фродом мы на своей стороне строим модели машинного обучения, которые по паттернам учатся классифицировать разные события на фрод/не фрод, получая для каждого события т.н. скор. Скор - число от 0 до 1, чем больше - тем вероятнее, что это что-то плохое.
Но (увы), стопроцентой точности классификации не бывает, и модели иногда ошибаются. И чтобы оценивать качество моделей (в т.ч. в зависимости от "цены ошибки"), придумана куча метрик работы таких моделей. ROC-AUC одна из них (https://ru.m.wikipedia.org/wiki/ROC-%D0%BA%D1%80%D0%B8%D0%B2%D0%B0%D1%8F). С ее помощью можно быстро оценить параметр "а работает ли модель вообще", безотносительно стоимости ошибок разного рода (0.5- случайное угадывание, 1- идеальное разделение классов).
По-русски без формул метрика означает: насколько в среднем скоры у класса 1 больше скоров у класса 0. Здесь мы не акцентируем внимание на других метриках, потому что их важность может варьироваться от очень многих параметров, которые могут отличаться от задачи к задаче.
Для борьбы с фродом мы на своей стороне строим модели машинного обучения, которые по паттернам учатся классифицировать разные события на фрод/не фрод, получая для каждого события т.н. скор. Скор - число от 0 до 1, чем больше - тем вероятнее, что это что-то плохое.
Но (увы), стопроцентой точности классификации не бывает, и модели иногда ошибаются. И чтобы оценивать качество моделей (в т.ч. в зависимости от "цены ошибки"), придумана куча метрик работы таких моделей. ROC-AUC одна из них (https://ru.m.wikipedia.org/wiki/ROC-%D0%BA%D1%80%D0%B8%D0%B2%D0%B0%D1%8F). С ее помощью можно быстро оценить параметр "а работает ли модель вообще", безотносительно стоимости ошибок разного рода (0.5- случайное угадывание, 1- идеальное разделение классов).
По-русски без формул метрика означает: насколько в среднем скоры у класса 1 больше скоров у класса 0. Здесь мы не акцентируем внимание на других метриках, потому что их важность может варьироваться от очень многих параметров, которые могут отличаться от задачи к задаче.