SLAM综述(4)激光与视觉融合SLAM
生活随笔
收集整理的這篇文章主要介紹了
SLAM综述(4)激光与视觉融合SLAM
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
分享
SLAM包含了兩個主要的任務:定位與構圖,在移動機器人或者自動駕駛中,這是一個十分重要的問題:機器人要精確的移動,就必須要有一個環境的地圖,那么要構建環境的地圖就需要知道機器人的位置。
本系列文章主要分成四個部分:
在第一部分中,將介紹Lidar SLAM,包括Lidar傳感器,開源Lidar SLAM系統,Lidar中的深度學習以及挑戰和未來。
第二部分重點介紹了Visual SLAM,包括相機傳感器,不同稠密SLAM的開源視覺SLAM系統。
第三部分介紹視覺慣性里程法SLAM,視覺SLAM中的深度學習以及未來。
第四部分中,將介紹激光雷達與視覺的融合。
激光雷達和視覺SLAM系統 說到激光雷達和視覺SLAM系統,必不可少的是兩者之間的標定工作。
多傳感器校準
Camera&IMU:Kalibr[1]是一個工具箱,解決了以下幾種傳感器的校準:
多攝像機校準。
視覺慣性校準(Camera IMU)。
卷簾快門式攝像機校準。
Vins融合了視覺與IMU,具有在線空間校準和在線時間校準的功能。
MSCKF-VIO具有攝像機和IMU的校準功能。
mc-VINS[2]可以校準所有多個攝像機和IMU之間的外部參數和時間偏移。
IMU-TK[3][4]還可以對IMU的內部參數進行校準。
論文[5]提出了一種用于單目VIO的端到端網絡,融合了來自攝像機和IMU的數據。
總結
以上是生活随笔為你收集整理的SLAM综述(4)激光与视觉融合SLAM的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 基于点云强度的3D激光雷达与相机的外参标
- 下一篇: Kimera实时重建的语义SLAM系统