Комментарии 5
Подскажите, какой алгоритм/реализацию и набор датчиков использовали для Visual SLAM?
Вообще пробовали все. Основной стерео камера с imu, сейчас идут эксперименты с добавлением лидара.
Можете поделиться знаниями или точкой входа в существующие актуальные алгоритмы/реализации SLAM? В университете хотим испытать и сравнить различные SLAM'ы для использования на небольшой автономной машинке.
По Visual SLAM я знаю (и пробовал) родной софт zed-камеры и (в меньшей степени) ORB-SLAM2. ZED хорошо работает на небольших расстояниях (в пределах комнаты), но на бОльших расстояниях (большое помещение, улица) очень часто неправильно определяет углы поворота по yaw и весь трек уплывает.
Лидарами тоже интересуюсь ("игрался" с Velodyne VLP-16). Тестировали известный SLAM LOAM и его модификацию LeGO-LOAM.
Из какого-то списка SLAM'ов со сравнениями знаю только бенчмарк KITTI.
З.Ы. А, я невнимательный. Вы в этой статье привели пару публикаций по SLAM'ам.
Вопрос немного не в тему, но, возможно вы сможете на него ответить. Почему большинство роботов с четырьмя ногами (типа Spot-а) балансирует на двух ногах стоя на месте или при медленном движении? Логически походка в стиле четвероногих животных (когда стоят три ноги) будет стабильнее и экономичнее на небольших скоростях, а так же позволит проще преодолевать препятствия.
Курс по робототехнике и ROS в университете ИТМО