Это эксперимент из статьи On Calibration of Modern Neural Networks. У неё 2600 цитирований. Вся суть эксперимента - показать смещённость уверенности современных моделей. Почему вы тут увидели выводы мирового значения я не знаю. По смыслу он схож с подобными в литературе, к примеру со статьёй Optimization with soft Dice can lead to a volumetric bias, где освещается проблема скалиброванности сетей с Dice лоссом.
Так можно делать, но это не лучший подход. Исходя из сильной гипотетической вариативности примеров для класса "остальное" не очень ясно, почему мы в итоге получим желаемое разделение.
Обычно всё-таки данную задачу формулируют как out-of-distribution детекцию и пытаются считать некоторую меру близости к видимой выборке. Из необсуждённых в статье методов для этой задачи можно привести, к примеру, метрические.
К сожалению, я не могу распространяться по поводу метрик, но вы можете оценить качество распознавания цифр верхней панели снизу используя текущие результаты распознавания номеров домов, которые я упоминал в статье. Как видите, для текущей SOTA модели процент ошибок уже менее одного процента.
На самом деле интересный вопрос про античиты, позволят ли они читать что-то из памяти :)
К сожалению, да, чтобы эти данные оказались в памяти их туда нужно сначала загрузить. В действительности LoL поддерживает так называемые replay файлы, но проще наверное было бы парсить сразу их. Жаль только, что для турнирных игр такие файлы достать нельзя.
Если вам интересна тема практического применения схожих систем для профессиональных команд, то вы можете найти отсылки к этому в упомянутой статье здесь или, к примеру, вот еще статья есть.
На практике извлеченные данные используются для построения рейтинговых моделей для предсказания исходов матчей. Но это уже совсем другая тема, отличная от компьютерного зрения.
Это эксперимент из статьи On Calibration of Modern Neural Networks. У неё 2600 цитирований. Вся суть эксперимента - показать смещённость уверенности современных моделей. Почему вы тут увидели выводы мирового значения я не знаю. По смыслу он схож с подобными в литературе, к примеру со статьёй Optimization with soft Dice can lead to a volumetric bias, где освещается проблема скалиброванности сетей с Dice лоссом.
Так можно делать, но это не лучший подход. Исходя из сильной гипотетической вариативности примеров для класса "остальное" не очень ясно, почему мы в итоге получим желаемое разделение.
Обычно всё-таки данную задачу формулируют как out-of-distribution детекцию и пытаются считать некоторую меру близости к видимой выборке. Из необсуждённых в статье методов для этой задачи можно привести, к примеру, метрические.
Добавил пометку о том, что LeNet проигрывает в качестве, это нужно было уточнить. Но само по себе сравнение, на мой взгляд, показательно.
К сожалению, да, чтобы эти данные оказались в памяти их туда нужно сначала загрузить. В действительности LoL поддерживает так называемые replay файлы, но проще наверное было бы парсить сразу их. Жаль только, что для турнирных игр такие файлы достать нельзя.