Информация
- В рейтинге
- Не участвует
- Откуда
- Самара, Самарская обл., Россия
- Дата рождения
- Зарегистрирован
- Активность
Специализация
Ученый по данным, ML разработчик
Средний
Python
ООП
TensorFlow
PyTorch
Pandas
Анализ данных
NumPy
Машинное обучение
Нейронные сети
Deep Learning
Долго не обучал, т.к. цель была понять общий алгоритм. 15 эпох было достаточно для неплохого скора. Видеокарта RTX4070ti, по времени около 30 мин заняло. На CPU (R7 7700) одна эпоха обучалась 25 мин, дальше остановил
Спасибо огромное за дельные замечания, вот правда!) Я выполнял эту задачу "сам-сусам", спросить было не у кого. Со всеми вашими замечаниями полностью согласен, учту на будущее. Благодарю еще раз! :)
Согласен, к этой матрице есть вопросы. Возможно, данных всё-таки недостаточно, т.к. на фотографиях есть много объектов очень похожих на пикетные столбики. Разметку я делал сам вручную и у этих столбиков есть особенность - возле них шпалы помечены белой краской, что по идее для модели тоже как-то надо указать, чтобы она лучше понимала, а объекты похожие на пикет вдали от пути, чтобы игнорировала.
Вот что на это говорит ЧатГПТ:
В представленной confusion matrix действительно есть единицы не только на диагонали, но и в ячейке, соответствующей классу piket по строке и background по столбцу. Такое расположение значений может указывать на одну из следующих причин:
Ошибка классификации: Модель может ошибочно распознавать объекты как piket, когда на изображении фактически находится background (фон). Это указывает на ложные срабатывания (false positives) для класса piket.
Неправильное построение матрицы: Возможна ошибка при построении самой матрицы, когда предсказанные и истинные классы перепутаны. Если значения классов были перепутаны в коде визуализации, то это может привести к неверной интерпретации матрицы.
Чтобы исключить вторую причину, стоит проверить код, использованный для построения этой матрицы. Убедитесь, что классы piket и background обозначены корректно и не перепутаны местами.
спасибо за конструктивное замечание, согласен, что в ф-ии detect_image не хватает приведения к RGB
Если говорить о качественном результате, то его просто не получить в условиях плохой погоды + к этому существенный износ для БПЛА, который и так не велик. Если заказчика и исполнителя это устраивает, то ОК
Не знаю. У меня был ровно тот набор данных, который описан в статье. Если у вас есть фото с БПЛА в разных условиях на разных перегонах, то можете сами проверить как отработает код. Я подробно расписал все шаги кода, чтобы можно было повторить
Насчет неправильной детекции, нужно много собранных данных, чтобы ставить такие эксперименты, а у меня их, к сожалению, нет. По поводу темноты, туман, дождь и прочие плохие условия съемки для камеры, тоже надо тренировать и в таких условиях. Но в целом, зачем запускать БПЛА в плохих условиях, когда его можно запусть в хороших?)
Да, вы совершенно верно всё поняли. Или вы считаете, что для понимания устройства и принципа обучения нейронной сети нужен датасет с миллионами строк, сотней признаков, десятки слоев, миллиарды параметров? Повторю также как и прошлому комментатору, что это "методичка для начального понимания, а не готовый продукт в "продакшн" для запуска беспилотного поезда"
Господа, вы что издеваетесь? И вам также напишу, прочтите всю статью полностью, а не только название и конец.
В статье размер обучаемой выборки указан: X = np.array([… и X_test_data
Про результаты метрик равные единице тоже были написаны пояснения
Причем здесь "определению мигающих сигналов по единственному кадру", если в статье НЕТ разбора процесса обработки фотографий и детекции объектов на них?
"более статичное, хотя бы марки авто или типы знаков" аналогично п.3, я не разбирал процесс разбора фото
Если вы дошли до "магической функции" detect_traffic_light, то наверняка прочитали, что раздел "Применение к реальным данным" - это лишь один из возможных вариантов дальнейшего развития и в статье никоем образом не разбирается распознавание светофоров по фото/видео с помощью OpenCV. Если коротко, то в статье разбирается "внутренность" сети, то, как обучается, базовые принципы (о чём написано прямо во введении). И да, эта статья по сути "методичка для начального понимания", а не готовый продукт в "продакшн" для запуска беспилотного поезда.
Исходя из этого, причем здесь луна и Тесла?
Причем "а Вы точно по одному кадру можете понять, мигает ли светофор", если про распознавания объектов на фото нет речи?
Какая транспортная безопасность и жизни людей?
"Почему, кстати, функция потерь не 0, а все приведённые метрики 1" - если что, то в моих результатах функция потерь при длительном обучении стремится к нулю, см. графики.
Зачем писать много букв в комментарии "всё и обо всём"? Комментарий ради комментария? Не уверен, что вы поняли назначение статьи. Если хотите помочь читателям, так расскажите как надо, а не "как НЕ надо использовать нейронки"
Пожалуйста, прочтите статью полностью, а не только ее заголовок. Если ваши ожидания касаемо содержимого моей статьи не оправдались, то напишите свою статью и изложите в ней то, что вы хотели увидеть. Если есть конкретные замечания и неточности моей статьи, давайте обсудим.