Как стать автором
Обновить

Комментарии 5

Подскажите, какой алгоритм/реализацию и набор датчиков использовали для Visual SLAM?

Вообще пробовали все. Основной стерео камера с imu, сейчас идут эксперименты с добавлением лидара.

Можете поделиться знаниями или точкой входа в существующие актуальные алгоритмы/реализации SLAM? В университете хотим испытать и сравнить различные SLAM'ы для использования на небольшой автономной машинке.

  • По Visual SLAM я знаю (и пробовал) родной софт zed-камеры и (в меньшей степени) ORB-SLAM2. ZED хорошо работает на небольших расстояниях (в пределах комнаты), но на бОльших расстояниях (большое помещение, улица) очень часто неправильно определяет углы поворота по yaw и весь трек уплывает.

  • Лидарами тоже интересуюсь ("игрался" с Velodyne VLP-16). Тестировали известный SLAM LOAM и его модификацию LeGO-LOAM.

Из какого-то списка SLAM'ов со сравнениями знаю только бенчмарк KITTI.

З.Ы. А, я невнимательный. Вы в этой статье привели пару публикаций по SLAM'ам.

Рабочий диапазон стереокамер зависит от расстояния между их камерами. У ZED baseline около 15 см, значит рабочий диапазон до 15-20 метров примерно.

У некоторых дронов расстояние между камер больше, поэтому они видят дальше.

Так видит пространство стереокамерный дрон skydio R1
Так видит пространство стереокамерный дрон skydio R1

Вопрос немного не в тему, но, возможно вы сможете на него ответить. Почему большинство роботов с четырьмя ногами (типа Spot-а) балансирует на двух ногах стоя на месте или при медленном движении? Логически походка в стиле четвероногих животных (когда стоят три ноги) будет стабильнее и экономичнее на небольших скоростях, а так же позволит проще преодолевать препятствия.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации