All streams
Search
Write a publication
Pull to refresh

Comments 7

У нас большой опыт с yolo и если у вас ошибки , то датасет вы собирали неправильно.

Один и тот же датасет может давать сильно разные результаты в зависимости от аугментаций и гиперпараметров. Аугментации могут как натолкнуть сеть на понимание в каких случаях детекции должны быть, так и наоборот, сбить её с верного пути.

Полезный опыт настройки тренировки модели. Интересно, какой объем данных был на входе. По умолчанию документация йолы рекомендует 100 - 300 эпох (в зависимости от версии), обычно за них достигается более-менее достойное качество детекции. Насколько лучше отрабатывает сетка, обучение которой длилось в несколько раз больше по эпохам, есть ли опыт в сравнении?

Можно подобрать количество эпох исходя из размера батча и размера датасета, подсчитав количество суммарных итераций за всё обучение, как правило при обучении YOLO как раз эта цифра решает. Я бы посоветовал начинать с 50-100 тысяч итераций для первого обучения и поставить patience на 15-25% от датасета, чтобы в случае, если сеть начала переобучение на train, мы перестали дальше обучать. Например, если у нас 32 тысячи изображений и батч 32, то ставим от 50 до 100 эпох и patience 10-25 эпох. Если хочется побыстрее обучить, то меняем SGD на AdamW и тренировка займёт в несколько раз меньше эпох.

Спасибо за рекомендацию!

Звучит так, будто как минимум концовка сгенерирована с помощью GPT

GPT помогает мне расставлять знаки препинания (не моя сильная сторона, к сожалению)
так что, да, использую чат) но не для написания текста

Sign up to leave a comment.

Articles