Беспилотное подразделение Audi опубликовало в открытом доступе датасет Autonomous Driving Dataset (A2D2) для обучения беспилотных автомобилей размером 2.3TB.
Данные были собраны с 6 камер (центральная 1920× 1208, 60° HFOV, 38° VFOV, 30FPS, боковые 120° HFOV, 73° VFOV), 5 лидаров (VLP-16) и CAN/FlexRay-шины что обеспечивает суммарный охват по всем сенсорам 360°, а также полную историю состояния автомобиля и все управляющие воздействия. Все данные сихронизированы и промаркированы в UTC.
Больше всего данных с семантической сегментацией (41,280 кадров, 38 категорий), сегментированные лидарные данные, аннотированные bounding box'ы для 12,499 кадров (14 классов объектов), одометрические данные.
Разработчики не поленились и привели большой tutorial, где разобрали работу с почти каждым сегментом данных на Python.
С каких сенсоров есть данные
Данные были собраны с 6 камер (центральная 1920× 1208, 60° HFOV, 38° VFOV, 30FPS, боковые 120° HFOV, 73° VFOV), 5 лидаров (VLP-16) и CAN/FlexRay-шины что обеспечивает суммарный охват по всем сенсорам 360°, а также полную историю состояния автомобиля и все управляющие воздействия. Все данные сихронизированы и промаркированы в UTC.
Что внутри
Больше всего данных с семантической сегментацией (41,280 кадров, 38 категорий), сегментированные лидарные данные, аннотированные bounding box'ы для 12,499 кадров (14 классов объектов), одометрические данные.
Как работать с данными
Разработчики не поленились и привели большой tutorial, где разобрали работу с почти каждым сегментом данных на Python.