高精地图_语义地图_众包地图相关论文笔记
1.20220618_LT-mapper: A Modular Framework for LiDAR-based Lifelong Mapping
- 2021
- 3d-Lidar構建long-term地圖
- 分為
- SLAM模塊(每個session的點云地圖通過關鍵幀構建,對不同session的關鍵幀進行anchor node檢測,基于anchor幀構建的閉環因子實現Multi-session之間offset的修正,在保證單個session pose最優的情況下,Multi-session之間的pose也是對齊的)
- 點云移除模塊(檢測變化的點云進行策略性的增加與刪除)
- 地圖管理模塊
- 代碼開源,使用GTSAM優化
2.20220623_Road Mapping and Localization using Sparse Semantic VisualFeatures
- 2021
- 文章主要實現了基于道路路標的SLAM,包括回環檢測,作者來自阿里。
- 地面特征匹配使用匈牙利算法、電線桿等匹配使用光流法
- 使用B樣條擬合道路線
- 是真的把語義信息納入到狀態變量進行一起優化的系統
- 工作量有點大
3.20220629_A General Framework for Lifelong Localization and Mapping in Changing Environment
- 2021
- 高仙機器人的life-long SLAM,可以看出是基于cartographer的工作
- 最核心的貢獻是,在移除子圖時使用邊緣化法進行子圖的移除,但是移除后會使得圖模型變得稠密,于是采用 Chow-Liu Tree 進行圖模型近似稀疏化。這一點應該是在life-long主題必備的。
- 還有一篇同時期的工作也是用的這個算法原理。
4.20220701_Geometry-based Graph Pruning for Lifelong SLAM
- 2021
- 同高仙機器人論文,使用Chow-Liu Tree 進行稀疏化
- 對于頻繁建圖的場景很實用,可以借鑒。
5.20220703_Mapping and Localization using Semantic Road Marking withCentimeter-level Accuracy in Indoor Parking Lots
- 2019
- IMU+輪速計進行航跡推算
- 環視進行語義分割(選定ROI防止邊緣區域畸變過大)
- 子圖里面校正DR、回環全局優化
- 利用DR數據進行圖像拼接、利用語義信息進行點云融合
- 值得學習的算法:
- 點云融合算法(避免點云過多出現問題)
- 語義ICP算法
6.20220704_Road-SLAM : Road Marking based SLAM with Lane-level Accuracy
- 2017
- 基于Graph-SLAM,只使用了Road信息
- 子圖思想進行回環檢測
- 可以借鑒的算法:
- 自適應IPM算法
- 自適應二值化算法
- 語義分類算法:通過形狀函數集合(ESF)提取特征,然后使用隨機森林進行分類
- GICP算法進行匹配
7.20220704_Monocular Localization in Urban Environments using Road Markings
- 2017
- 只有定位,沒有建圖,基于優化求解
- 地圖使用的Lidar構建好的,使用單目進行定位
- 單目定位沒有使用語義信息,使用道路邊緣以及道路點的幾何信息構建優化問題進行求解。
- edge提取:基于隨機森林的邊緣提取算法
- 匹配: Chamfer matching 算法
8.20220704_AVP-SLAM: Semantic Visual Mapping and Localization for Autonomous Vehicles in the Parking Lot
- 2020
- AVP-SLAM 作者秦通
- 環視 + IMU + 輪速計
- 環視 IPM 處理
- U-Net,對合成IPM圖像的每一個像素輸出一個標簽,標簽主要有lanes, parking lines, guide signs, speed bumps, free space, obstacles, and walls
- 建圖(a)利用里程計進行局部建圖,(b)ICP回環檢測全局優化建圖
- 定位(a)里程計定位,(b)語義ICP定位,EKF融合
- 主要貢獻是提出方案框架
- AVP-SLAM:自主代客泊車視覺定位方案探索(自動駕駛)
9.20220704_RoadMap: A Light-Weight Semantic Map for Visual Localization towards Autonomous Driving
- 2021
- RoadMap 作者秦通
- 車端建圖(眾包)、云端維護(融合、更新)、壓縮(輪廓提取)分發
- 汽車本地建圖:汽車使用前視照相機、RTK-GPS、IMU 和輪式編碼器等傳感器進行融合建圖。其中 RTK-IMU 可以用來進行車輛位姿估計,相機圖片可以用來提取語義特征,將提取到的語義特征投影至世界坐標系可以建立局部的語義地圖。
- 云端建圖:汽車在本地建立的局部語義地圖會上傳至云端,云端服務器收集多個汽車的局部地圖,通過拼接形成全局地圖,然后對全局地圖采用輪廓提取的方法進行壓縮
- 用戶端定位:用戶可以實時獲取最新的全局地圖,只需要有低成本的相機、GPS、IMU 和編碼器即可通過 GPS 和 IMU 進行粗定位,再結合語義信息匹配獲取較為準確的位置估計
- 對云端數據進行一系列自動化的處理,便可以生產自動駕駛所使用的定位圖層和拓撲圖層,自動生成拓撲圖層?
- 云端構圖完成后,其他車輛經過該地圖覆蓋的區域后,便可以下載該輕量化的語義地圖,進行導航和定位
- 定位和之前車端數據處理一樣,提取前視相機的語義特征,通過和下載的語義地圖比對,得到當前車輛的位姿
- 不用高精地圖行不行?RoadMap:自動駕駛輕量化視覺眾包地圖
- 個人覺得可以以這篇文章為藍本進行實現
10.20220704_Light-weight Localization for Vehicles using Road Markings
- 2013
- 本田
- 建圖階段:GPS+IMU+camera(檢測 road mark)
- 定位階段:通過 檢測的 road mark 進行地圖查詢定位
- 創新點:更高特性的特征點檢測
- we use MSER to find regions of interest that could potentially contain road markings
- IPM后,在 ROI 中提取 FAST 角點,使用 HOG 進行角點描述,并進行角點的標注
- We detect the contour of the road mark on the inverse perspective mapped (IPM) image using an active snake algorithm [8] and record the relative pixel locations of these corners within the contour.從角點點云中查找輪廓
- Road Mark是模板化的
11.20220704_Submap-Based SLAM for Road Markings
- 2015
- 論文背景為一個大學生智能汽車競賽
- 離線的SLAM過程
- ROI提取,IPM變換(selected a 2-D difference of Gaussian (DoG) as a filter 濾波畸變)特征提取算法為參考文獻2
- 局部建圖:占柵格地圖,在線構建
- 全局優化:
- 感覺這篇文章沒啥太突出的亮點啊,基本上是一些策略型的方法。
12.20220705_LaneLoc: Lane Marking based Localization using Highly Accurate Maps
- 2013
- 建圖:360Lidar + 手工,就是傳統的建圖方式
- 文章主要工作在于已有地圖后的定位,定位 = 橫向定位 + 縱向定位
- 建圖相機朝下安裝,避免了 roll pitch 的影響
- 解讀參考
13.20220705_Lane marking aided vehicle localization
- 2013
- 采集車采集數據進行處理,具體怎么處理的沒有詳細展開
- 建圖階段:拿到lane points后:
- Douglas–Peucker’s algorithm 降采樣
- 聚類
- 最小二乘擬合參數得到lane模型(Each lane can have two border lines, both of them mapped into two polylines), Q:全是小線段組成的嗎?
- 定位階段:橫向定位,縱向定位,很魔幻沒咋看懂
14.20220705_Visual Semantic Localization based on HD Map for Autonomous Vehicles in Urban Scenarios
-
2021
-
作者:華為諾亞方舟實驗室
-
看華為的論文我似乎找到了他們寫論文的固有格式:
- 1.首頁 = 摘要 + Introduction(由行業大方案,引出主要貢獻)+ 一張漂亮圖
- 2.次頁 = RELATED WORK(和本文類似的方案介紹,這里就很耐人尋味了,列出的參考文獻,語句關鍵詞都是來自與參考文獻原文,簡單變一下描述就是,很有可能就是來自于摘要) + 本系統框架圖 + III.System overview
- 3.后面依次為IV. METHODOLOGY + V. EXPERIMENTAL EVALUATION + VI. CONCLUSIONS + REFERENCES
-
傳感器:單目相機(提取語義特征) + IMU + 兩個編碼器 + GNSS
-
IV.METHODOLOGY
A. Semantic Features and Detection
- YOLOV3實現語義分割, sign–> st=(stl,stc,stb)s_t = (s_t^l, s_t^c, s_t^b)st?=(stl?,stc?,stb?):
- stls_t^lstl?: 點云類別
- stcs_t^cstc?:點云類別得分
- 2tb2_t^b2tb?:類別boundingBox (四個頂點)
- 加上相對當前位置的高度 height 一并存入到 HDMap 中
- pole–> st=(stl,stc,stb)s_t = (s_t^l, s_t^c, s_t^b)st?=(stl?,stc?,stb?):
- stls_t^lstl?: 點云類別
- stcs_t^cstc?:點云類別得分
- 2tb2_t^b2tb?:類別 two vertices (端點)
- 一并存入到 HDMap 中
- road marking: sample points 存入 HDMap 中
B. Semantic Data Association with HD map
step 1 在里程計先驗位姿附近進行采樣得到候選位姿(預測),并根據采樣位姿將地圖上的特征投影到圖像上
- pi=1ZicKTvcTv?1pimp_i = \frac{1}{Z_i^c}KT_v^cT_v^{-1}p_i^mpi?=Zic?1?KTvc?Tv?1?pim?;
- pip_ipi?: 地圖中第 iii 個特征點位置
- K,TvcK, T_v^cK,Tvc? 為相機內外參
- ZicZ_i^cZic? 為地圖中第 iii 個特征點在相機坐標系 ZZZ 軸的位置
step 2 執行局部一致性的粗關聯,找到近似最優的采樣姿態,同時消除由于大的先驗姿態誤差引起的不匹配。 局部結構一致性:感知特征的橫向位置分布 + 對應特征重投影最小化。(a)感知與重投影特征按橫向位置升序排列; (b)計算每個感知特征 sts_tst? 和每個重投影特征 rkr_krk? 之間的相似度:
p(st∣rk)=p(stl∣rkl)p(stc∣stl,rkl)p(stb∣rkb)(4)p\left(s_{t} \mid r_{k}\right)=p\left(s_{t}^{l} \mid r_{k}^{l}\right) p\left(s_{t}^{c} \mid s_{t}^{l}, r_{k}^{l}\right) p\left(s_{t}^ \mid r_{k}^\right) \tag{4} p(st?∣rk?)=p(stl?∣rkl?)p(stc?∣stl?,rkl?)p(stb?∣rkb?)(4)
where, p(stl∣rkl)p\left(s_{t}^{l} \mid r_{k}^{l}\right)p(stl?∣rkl?) and p(stc∣stl,rkl)p\left(s_{t}^{c} \mid s_{t}^{l}, r_{k}^{l}\right)p(stc?∣stl?,rkl?) can be obtained by offline learning of perception results.點云類別與點云得分相似度好計算
- For signs, the likelihood p(stb∣rkb)p\left(s_{t}^ \mid r_{k}^\right)p(stb?∣rkb?) consists of position and size similarity:這里就是計算 boundingBox的相似性
p(stb∣rkb)=ωexp?(?12(xp?upσp)2)+(1?ω)exp?(?12(xs?usσs)2)\begin{aligned} p\left(s_{t}^ \mid r_{k}^\right)=& \omega \exp \left(-\frac{1}{2}\left(\frac{x_{p}-u_{p}}{\sigma_{p}}\right)^{2}\right)+\\ &(1-\omega) \exp \left(-\frac{1}{2}\left(\frac{x_{s}-u_{s}}{\sigma_{s}}\right)^{2}\right) \end{aligned} p(stb?∣rkb?)=?ωexp(?21?(σp?xp??up??)2)+(1?ω)exp(?21?(σs?xs??us??)2)?
,- ωωω 是用于加權位置相似性和大小相似性的學習超參數。
- up、us、xp、xsu_p 、 u_s 、 x_p、 x_sup?、us?、xp?、xs? 分別表示地圖特征和感知特征的位置和大小。 σp,σsσ_p, σ_sσp?,σs? 可以從感知結果中離線學習。
- 與 signs 相似,pole 的似然 p(stb∣rkb)p(s_t^b |r_k^b)p(stb?∣rkb?) 由位置、方向和重疊相似性組成。
- 如果感知特征的最大相似度得分大于閾值并且保留了局部結構,則將它們視為匹配對。 對于每個采樣姿勢,計算cost CCC 以根據匹配數 NmN_mNm? 和匹配誤差 eii′e_{i i^{\prime}}eii′? 對其進行近似評估:
C=?1Nm∑i=1Nmeii′+ωNmC=-\frac{1}{N_{m}} \sum_{i=1}^{N_{m}} e_{i i^{\prime}}+\omega N_{m} C=?Nm?1?i=1∑Nm??eii′?+ωNm?
ω\omegaω is a hyperparameter. eii′e_{i i^{\prime}}eii′? is defined as the lateral distance between feature iii and i′i^{\prime}i′, as shown in Fig. 3. The proposal with max?C\max CmaxC is regarded as the approximate optimal matching sampled pose and will be used in step 3 .
step 3 基于 step2 中近似最優匹配采樣位姿,進行考慮匹配數、匹配相似度和局部結構相似度的最優關聯方法,實現最優全局一致性匹配。 通過解決以下優化問題,將其表述為多階圖匹配問題:
X^=arg?max?Xω1Nm+ω21Nm∑i=1N∑i′=1Mxii′sii′+ω31Ne∑iN∑i′M∑jN∑j′Mxii′xjj′sij,i′j′(7)\begin{aligned} \hat{\mathbf{X}}=\underset{\mathbf{X}}{\arg \max } \omega_{1} N_{m}+\omega_{2} \frac{1}{N_{m}} \sum_{i=1}^{N} \sum_{i^{\prime}=1}^{M} x_{i i^{\prime}} s_{i i^{\prime}} \\ &+\omega_{3} \frac{1}{N_{e}} \sum_{i}^{N} \sum_{i^{\prime}}^{M} \sum_{j}^{N} \sum_{j^{\prime}}^{M} x_{i i^{\prime}} x_{j j^{\prime}} s_{i j, i^{\prime} j^{\prime}} \end{aligned} \tag{7} X^=Xargmax?ω1?Nm?+ω2?Nm?1?i=1∑N?i′=1∑M?xii′?sii′??+ω3?Ne?1?i∑N?i′∑M?j∑N?j′∑M?xii′?xjj′?sij,i′j′??(7)
S.t.
∑i=1Nxii′≤1,∑i′=1Mxii′≤1,xii′=0or?1\sum_{i=1}^{N} x_{i i^{\prime}} \leq 1, \sum_{i^{\prime}=1}^{M} x_{i i^{\prime}} \leq 1, x_{i i^{\prime}}=0 \text { or } 1 i=1∑N?xii′?≤1,i′=1∑M?xii′?≤1,xii′?=0?or?1
- NNN and MMM are the number of perceived and reprojection features,
- NeN_{e}Ne? is the number of edges between two features.
- ω1,ω2\omega_{1}, \omega_{2}ω1?,ω2? and ω3\omega_{3}ω3? are hyperparameters.
- xii′x_{i i^{\prime}}xii′? denotes if perceived feature iii is matched with reprojection feature i′i^{\prime}i′.
- sii′s_{i i^{\prime}}sii′? represents the similarity between perceived feature iii and reprojection feature i′i^{\prime}i′, which is computed by equation (4). sij,i′j′s_{i j, i^{\prime} j^{\prime}}sij,i′j′? represents the similarity between edge eije_{i j}eij? and ei′j′e_{i^{\prime} j^{\prime}}ei′j′? :
sij,i′j′=exp?(?12(eij?ei′j′σe)2)(8)s_{i j, i^{\prime} j^{\prime}}=\exp \left(-\frac{1}{2}\left(\frac{e_{i j}-e_{i^{\prime} j^{\prime}}}{\sigma_{e}}\right)^{2}\right)\tag{8} sij,i′j′?=exp(?21?(σe?eij??ei′j′??)2)(8)- eije_{i j}eij? and ei′j′e_{i^{\prime} j^{\prime}}ei′j′? denotes the lateral distance between feature iii and jjj, and feature i′i^{\prime}i′ and j′j^{\prime}j′, as shown in Fig. 3 .
- σe\sigma_{e}σe? can be learned offline. The optimization problem will be solved by general random re-weighted walk framework [39].
step 4 執行連續幀間的特征跟蹤。該過程在連續幀中的特征之間建立關聯。 由于感知特征是靜態的并保持局部結構,我們將該過程表述為類似于等式(7)的多階圖匹配問題。
step 5 執行時間平滑以得到時間一致性的數據關聯。該過程在連續幀中的感知特征和地圖特征之間構建最佳一致匹配。 當前幀的匹配正確性可以通過滑動窗口中先前的匹配結果來驗證。 此外,如果當前幀中出現不匹配,則可以根據之前的匹配和跟蹤來找到并糾正它。 時間平滑通過對滑動窗口中每一幀的匹配 D1:TD_{1: T}D1:T? 和匹配置信度 ct,ic_{t, i}ct,i? 加權來獲取地圖特征 xlx^{l}xl 的對應感知特征 sis_{i}si?:
s^i=arg?max?sip(si∣D1:T)=arg?max?si∑tI(si,Dt)ct,i∑t,jI(sj,Dt)ct,j\begin{aligned} \hat{s}_{i} &=\underset{s_{i}}{\arg \max } p\left(s_{i} \mid D_{1: T}\right) \\ &=\underset{s_{i}}{\arg \max } \frac{\sum_{t} I\left(s_{i}, D_{t}\right) c_{t, i}}{\sum_{t, j} I\left(s_{j}, D_{t}\right) c_{t, j}} \end{aligned} s^i??=si?argmax?p(si?∣D1:T?)=si?argmax?∑t,j?I(sj?,Dt?)ct,j?∑t?I(si?,Dt?)ct,i???
-
I(si,Dt)I\left(s_{i}, D_{t}\right)I(si?,Dt?) denotes if map feature xlx^{l}xl is matched with perceived feature sis_{i}si?.
-
The matching confidence ct,ic_{t, i}ct,i? is given by evaluating feature and local structure similarity:
ct,i=ωexp?(?12(sii′σp)2)+(1?ω)exp?(?12(1Nm?1∑j=1,j≠iNmsij,i′j′σe)2)\begin{aligned} c_{t, i} &=\omega \exp \left(-\frac{1}{2}\left(\frac{s_{i i^{\prime}}}{\sigma_{p}}\right)^{2}\right) \\ &+(1-\omega) \exp \left(-\frac{1}{2}\left(\frac{\frac{1}{N_{m}-1} \sum_{j=1, j \neq i}^{N_{m}} s_{i j, i^{\prime} j^{\prime}}}{\sigma_{e}}\right)^{2}\right) \end{aligned} ct,i??=ωexp(?21?(σp?sii′??)2)+(1?ω)exp????21?(σe?Nm??11?∑j=1,j?=iNm??sij,i′j′??)2???? -
如果最佳感知特征的累積置信度遠大于次優感知特征的置信度,則認為最佳感知特征為地圖特征xlx^{l}xl的匹配對。否則,認為地圖特征xlx^{l}xl具有不確定匹配, 并且可以給出與每個感知特征的匹配概率。 該過程區分確定匹配和不確定匹配,可以解決奇點引起的不匹配問題。
C. Pose Graph Optimization
等式(2)的位姿估計過程可以定義為先驗概率和似然的乘積:
X^=arg?max?Xp(X∣Z,L,D^)=arg?max?Xp(X)p(Z∣X,L,D^)(11)\begin{aligned} \hat{\mathcal{X}} &=\underset{\mathcal{X}}{\arg \max } p(\mathcal{X} \mid \mathcal{Z}, \mathcal{L}, \hat{\mathcal{D}}) \\ &=\underset{\mathcal{X}}{\arg \max } p(\mathcal{X}) p(\mathcal{Z} \mid \mathcal{X}, \mathcal{L}, \hat{\mathcal{D}}) \end{aligned}\tag{11} X^?=Xargmax?p(X∣Z,L,D^)=Xargmax?p(X)p(Z∣X,L,D^)?(11)
通過高斯分布假設,先驗分布 p(X)p(\mathcal{X})p(X) 是通過里程計的相對運動估計得到的。 我們基于里程計測量 zi,i+1oz_{i, i+1}^{o}zi,i+1o? 和匹配的特征對 zilz_{i}^{l}zil? 制定滑動窗口非線性最小二乘估計器,以估計最近的 TTT 個姿勢。 與常用的濾波方法相比,優化方法可以處理異步和延遲測量,并在相同的計算資源下實現更高的精度[40][40][40]。 優化目標表示為:
X^=arg?min?X∑ieo(xip,xi+1p,zi,i+1o)TΩioeo(xip,xi+1p,zi,i+1o)+∑iel(xip,xl,zil)TΩilel(xip,xl,zil)+∑iejm(xl)TΩjmejm(xl))(12)\begin{aligned} \hat{\mathcal{X}}=\underset{\mathcal{X}}{\arg \min } & \sum_{i} e^{o}\left(x_{i}^{p}, x_{i+1}^{p}, z_{i, i+1}^{o}\right)^{\mathrm{T}} \Omega_{i}^{o} \\ & e^{o}\left(x_{i}^{p}, x_{i+1}^{p}, z_{i, i+1}^{o}\right) \\ &+\sum_{i} e^{l}\left(x_{i}^{p}, x^{l}, z_{i}^{l}\right)^{\mathrm{T}} \Omega_{i}^{l} e^{l}\left(x_{i}^{p}, x^{l}, z_{i}^{l}\right) \\ &\left.+\sum_{i} e_{j}^{m}\left(x^{l}\right)^{\mathrm{T}} \Omega_{j}^{m} e_{j}^{m}\left(x^{l}\right)\right) \end{aligned}\tag{12} X^=Xargmin??i∑?eo(xip?,xi+1p?,zi,i+1o?)TΩio?eo(xip?,xi+1p?,zi,i+1o?)+i∑?el(xip?,xl,zil?)TΩil?el(xip?,xl,zil?)+i∑?ejm?(xl)TΩjm?ejm?(xl))?(12)
其中,每個誤差項連同對應的信息矩陣可以看作一個因子,每個狀態變量可以看作一個節點,因此定位問題可以用因子圖表示,如圖4所示。誤差項由下式組成 里程計誤差 eoe^{o}eo、語義測量誤差 ele^{l}el 和地圖誤差 ejme_{j}^{m}ejm?。 里程計誤差定義為:
eo(xip,xi+1p,zi,i+1o)=(xi+1pTxip)zi,i+1oe^{o}\left(x_{i}^{p}, x_{i+1}^{p}, z_{i, i+1}^{o}\right)=\left(x_{i+1}^{p}{ }^{\mathrm{T}} x_{i}^{p}\right) z_{i, i+1}^{o} eo(xip?,xi+1p?,zi,i+1o?)=(xi+1p?Txip?)zi,i+1o?
Semantic measurement error factor ele^{l}el is expressed as:
el(xip,xl,zil)=[1ZicKTvcxipTxl]0?[zil]0e^{l}\left(x_{i}^{p}, x^{l}, z_{i}^{l}\right)=\left[\frac{1}{Z_{i}^{c}} K T_{v}^{c} x_{i}^{p \mathrm{~T}} x^{l}\right]_{0}-\left[z_{i}^{l}\right]_{0} el(xip?,xl,zil?)=[Zic?1?KTvc?xip?T?xl]0??[zil?]0?
其中,[?]0[\cdot]_{0}[?]0? 表示向量的第一個元素。 測量誤差僅采用橫向誤差,以消除高度誤差的影響以及對地圖特征準確絕對高度的要求,如圖5所示。
地圖誤差因子 ejme_{j}^{m}ejm? 表示為:
ejm(xl)=xl?mje_{j}^{m}\left(x^{l}\right)=x^{l}-m_{j} ejm?(xl)=xl?mj?
其中,mjm_{j}mj? 是第 jjj 個地圖特征的位置。 在本文中,我們采用參考文獻[26]中提出的地圖特征的方差構造方法。 在地圖因子各向同性假設的情況下,根據假設的地圖質量,地圖因子的方差可以定義為:
σm2=1γ(c)r2\sigma_{m}^{2}=\frac{1}{\gamma(c)} r^{2} σm2?=γ(c)1?r2
其中, γ\gammaγ 是反卡方累積分布函數,ccc 表示置信度,rrr 表示半徑。
非線性優化問題可以直接通過迭代算法求解。 采用滑動窗口代替全批處理方法,在保證定位精度的同時提高計算效率。 舊狀態被直接截斷和忽略。 邊緣化方法也可以處理舊狀態,但它會累積線性化誤差,使系統矩陣密集,并導致死鎖。 邊緣化方法基于過去的數據約束姿態,但使用地圖特征作為先驗足以約束車輛姿態。
- 可能面臨的問題:本文是以GPS組合導航提供絕對位姿,在定位的時候也是根據GPS提供搜索范圍,在地下停車場中這是一個難點!
15.20220705_AVP-Loc: Surround View Localization and Relocalization Based on HD Vector Map for Automated Valet Parking
- 2021
- 作者:小米
- 文章剔除了利用 HD Vector Map 進行定位與重定位,并沒有討論 HDMap 是如何建立的;
- 提出來了 BEV語義圖與 HDMap Vector Map 匹配的方案
- 提出來了利用HDMap vector Map進閉環檢測的方案
總結
以上是生活随笔為你收集整理的高精地图_语义地图_众包地图相关论文笔记的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 贝叶斯决策理论之入门篇
- 下一篇: 今日头条广告投放技巧干货:落地页分析工具