Comments 7
У нас большой опыт с yolo и если у вас ошибки , то датасет вы собирали неправильно.
Полезный опыт настройки тренировки модели. Интересно, какой объем данных был на входе. По умолчанию документация йолы рекомендует 100 - 300 эпох (в зависимости от версии), обычно за них достигается более-менее достойное качество детекции. Насколько лучше отрабатывает сетка, обучение которой длилось в несколько раз больше по эпохам, есть ли опыт в сравнении?
Можно подобрать количество эпох исходя из размера батча и размера датасета, подсчитав количество суммарных итераций за всё обучение, как правило при обучении YOLO как раз эта цифра решает. Я бы посоветовал начинать с 50-100 тысяч итераций для первого обучения и поставить patience на 15-25% от датасета, чтобы в случае, если сеть начала переобучение на train, мы перестали дальше обучать. Например, если у нас 32 тысячи изображений и батч 32, то ставим от 50 до 100 эпох и patience 10-25 эпох. Если хочется побыстрее обучить, то меняем SGD на AdamW и тренировка займёт в несколько раз меньше эпох.
Звучит так, будто как минимум концовка сгенерирована с помощью GPT
Когда YOLO не спасает: как один параметр может испортить всё