Comments 10
автотесты — Java+Junit/TestNG,
скрипты для прямого взаимодействия с моделью — Python+Jupyter.
а как (и зачем) вы соединили в одном проэкте жабу и питона? Какое у вас API для МЛ?
Т.е. получается, что у вас модель постоянно не тренируется? Если какая либо связь модели со «свежими» данными?
Нет, постоянного дообучения не происходит. А взаимосвязь со «свежими» данными реализована, как правило, через интеграционный слой. Вопрос в частоте получения получения этих данных и регулярности их обработки. Есть проекты в которых мы получаем подобную информацию ежесекундно и на её основе выдаём свои прогнозы.
А как можно ожидать от модели «правильного» поведения, когда она натренирована находить котиков на картинках, а вы ей кормите картинки слонов?
Может автор высказывал мысль, что никто и не ждёт, что модель вернёт тебе, что это котик. А то что сервис в который обернута эта модель/сама модель не сдохнет вообще, когда получит слона, проверить надо
Если возник слон, значит, датасет, на котором мы обучались, возможно, не содержал слонов вообще. И тут есть несколько путей решений.
1) Искать в исходных данных слонов, если они были — разбираться, почему мы не можем распознать их.
2) Убедиться в том, что слоны не были выкинуты из датасета как аномалия (выброс).
3) Захардкодить опознавание слонов
Слоны — это, конечно, условное обозначение :)
1) Искать в исходных данных слонов, если они были — разбираться, почему мы не можем распознать их.
2) Убедиться в том, что слоны не были выкинуты из датасета как аномалия (выброс).
3) Захардкодить опознавание слонов
Слоны — это, конечно, условное обозначение :)
Sign up to leave a comment.
Почему мы решили развивать практику тестирования ML