Learning inertial odometry for dynamic legged robot state estimation
This paper introduces a novel proprioceptive state estimator for legged robots based on a learned displacement measurement from IMU data. Recent research in pedestrian tracking has shown that motion can be inferred from inertial data using convolutional neural networks. A learned inertial displaceme...
Հիմնական հեղինակներ: | Buchanan, R, Camurri, M, Dellaert, F, Fallon, M |
---|---|
Ձևաչափ: | Conference item |
Լեզու: | English |
Հրապարակվել է: |
Journal of Machine Learning Research
2022
|
Նմանատիպ նյութեր
-
VILENS: Visual, inertial, lidar, and leg odometry for all-terrain legged robots
: Wisth, D, և այլն
Հրապարակվել է: (2022) -
Deep IMU bias inference for robust visual-inertial odometry with factor graphs
: Buchanan, R, և այլն
Հրապարակվել է: (2022) -
Preintegrated velocity bias estimation to overcome contact nonlinearities in legged robot odometry
: Wisth, D, և այլն
Հրապարակվել է: (2020) -
3D freehand ultrasound using visual inertial and deep inertial odometry for measuring patellar tracking
: Buchanan, R, և այլն
Հրապարակվել է: (2024) -
Inertial learning and haptics for legged robot state estimation in visually challenging environments
: Buchanan, R
Հրապարակվել է: (2023)