视觉SLAM回环检测、词袋模型和视觉位置识别--论文记录和实验简析
一、傳統方法部分(詞袋模型,bag of words,BoW)
1. 預先在環境中采集足夠多的圖像或者所有位置的圖像(成千上萬張圖片)之后構建視覺詞匯表
參考論文:2012年的TRO頂刊
Gálvez-López D, Tardos J D. Bags of binary words for fast place recognition in image sequences[J]. IEEE Transactions on Robotics, 2012, 28(5): 1188-1197.
J. Sivic and A. Zisserman, “Video Google: A text retrieval approach to object matching in videos,” in Proc. IEEE Int. Conf. Comput. Vis., Oct. 2003, vol. 2, pp. 1470–1477 Nister D, Stewenius H. Scalable recognition with a vocabulary tree[C]//2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'06). Ieee, 2006, 2: 2161-2168.Calonder M, Lepetit V, Strecha C, et al. Brief: Binary robust independent elementary features[C]//European conference on computer vision. Springer, Berlin, Heidelberg, 2010: 778-792.
2. 在線構建視覺詞匯表 visual vocabulary
參考論文: 2012年的頂刊
Nicosevici T, Garcia R. Automatic visual bag-of-words for online robot navigation and mapping[J]. IEEE Transactions on Robotics, 2012, 28(4): 886-898.
3. 實踐部分
?網址:DBoW3的代碼GitHub - rmsalinas/DBow3: Improved version of DBow2Improved version of DBow2. Contribute to rmsalinas/DBow3 development by creating an account on GitHub.https://github.com/rmsalinas/DBow3
3.1 代碼下載和安裝
github上下載
命令行模式:
git clone https://github.com/rmsalinas/DBow3.git之后cd到DBow3目錄分別執行以下命令
mkdir build cd build cmake .. make sudo make install?3.2? 安裝編譯好之后如何使用?
按照3.1編譯好之后,在DBow3/build/utils目錄下有三個可執行文件。
首先從其他目錄 cd到DBoW目錄,之后執行以下命令
./build/utils/demo_general orb ./images/image0.png images/image1.png images/image2.png注釋:如果圖片的目錄報錯,則自己在DBow目錄下新建一個目錄名為images 然后把幾張圖片放進去。
之后會看到結果,結果的解析參考以下兩篇博客
深入理解DBOW3算法(一)_sanduan168的博客-CSDN博客_dbow3 github
深入理解DBOW3算法(二)_sanduan168的博客-CSDN博客
3.3 修改代碼
若想修改代碼,則在DBow3/utils/demo_general.cpp文件中修改,? 之后切換到build目錄下,make一下,就可以運行了。? 深入的代碼改動自行研究。
肺炎期間的科研實驗之--0301 詞袋模型DBoW3跳坑!!!!_hongyunzhi92的博客-CSDN博客https://blog.csdn.net/hongyunzhi92/article/details/104717151?spm=1001.2101.3001.6650.1&utm_medium=distribute.pc_relevant.none-task-blog-2~default~CTRLIST~Rate-1.pc_relevant_paycolumn_v3&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2~default~CTRLIST~Rate-1.pc_relevant_paycolumn_v3&utm_relevant_index=2
3.4 K-means聚類方法案例
k-means算法的實現(算法思想+流程圖+代碼+散點圖+結果輸出)-python_木阿南二三記的博客-CSDN博客_kmeans算法流程圖k-means算法思想:第一步,從文件中讀取數據,點用元組表示,點集用列表表示。第二步,初始化聚類中心。首先獲取數據的長度,然后在range(0,length)這個區間上隨機產生k個不同的值,以此為下標提取出數據點,將它們作為聚類初始中心,產生列表center。第三步,分配數據點。將數據點分配到距離(歐式距離)最短的聚類中心中,產生列表assigment,并計算平均誤差。第四步,如果首...https://blog.csdn.net/qq_43109561/article/details/86430361?spm=1001.2101.3001.6650.5&utm_medium=distribute.pc_relevant.none-task-blog-2~default~BlogCommendFromBaidu~Rate-5.pc_relevant_antiscan_v2&depth_1-utm_source=distribute.pc_relevant.none-task-blog-2~default~BlogCommendFromBaidu~Rate-5.pc_relevant_antiscan_v2&utm_relevant_index=10
4. 網友解析細節
開源詞袋模型DBow3原理&源碼(一)整體結構 - tszs_song - 博客園Bow3源碼與原理https://www.cnblogs.com/zhengmeisong/p/8446687.html回環檢測 - 簡書一、回環檢測的意義 SLAM系統有了前端的視覺里程計,有了后端優化,似乎已經比較好用了。但事情還是沒有我們想象的那么簡單,由于上一篇文章我們剛剛把后端優化做了一次精簡,在提高...https://www.jianshu.com/p/023e5006499d
淺談回環檢測中的詞袋模型(bag of words)_辜鴻銘的博客-CSDN博客_詞袋模型論文淺談回環檢測中的詞袋模型(bag of words)將會從以下四個方面進行展開關于詞袋模型的基本理解算法簡介開源代碼庫DBoW2庫的簡單介紹關于DBoW的一些總結https://blog.csdn.net/qq_24893115/article/details/52629248
【泡泡機器人原創專欄】DBoW3 視覺詞袋模型、視覺字典和圖像數據庫分析圖像數據庫、視覺字典和視覺詞袋向量是SLAM、計算機視覺、3D物體識別和卷積神經網絡圖像處理的重要基礎工具。本文將對開源DBoW3源碼進行深入剖析。https://mp.weixin.qq.com/s?__biz=MzI5MTM1MTQwMw==&mid=2247487947&idx=1&sn=a161d5ba005adabbfef23ee823c3f34b&chksm=ec10afcfdb6726d9460e3992357b93a50fb622a805c785a9322d7cafb6f8d7d0b02494206fbd&mpshare=1&scene=25&srcid=0120tujPrzQBRJvOMRlHZuAr&pass_ticket=DyCv5iDYNGzqu%2FG5eHjGG4I5gZSFV%2B4a6kb08nDUOcc%3D#wechat_redirect
二、基于視覺特征的地圖構建和定位或導航框架(概率等方法)
參考論文:
M. Cummins and P. Newman, “Probabilistic appearance based navigation and loop closing,” in Proc. IEEE Int. Conf. Robot. Autom., Rome, Italy, Apr. 2007, pp. 2042–2048. M. Cummins and P. Newman, “FAB-MAP: Probabilistic localization and mapping in the space of appearance,” Int. J. Robot. Res., vol. 27, no. 6, pp. 647–665, 2008. M. Cummins and P. Newman, “Highly scalable appearance-only slam fab-map 2.0,” in Proc. Robot. Sci. Syst., 2009, pp. 1–8. R. Paul and P. Newman, “FAB-MAP 3D: Topological mapping with spatial? and visual appearance,” in Proc. IEEE Int. Conf. Robot. Autom., 2010, pp. 2649–2656. A. Glover, W. Maddern, M. Milford, and G. Wyeth, “FAB-MAP + RatSLAM: Appearance-based SLAM for multiple times of day,” in Proc. IEEE Int. Conf. Robot. Autom., 2011, pp. 3507–3512.三、Bag of objects (BoO)擴展閱讀
用環境中的物體作為視覺詞匯,有個問題是環境中特別是很多室內環境或者路段,沒有明顯的物體怎么辦?
參考論文:Wang X, Hu Z, Tao Q, et al. Bayesian place recognition based on bag of objects for intelligent vehicle localisation[J]. IET Intelligent Transport Systems, 2019, 13(11): 1736-1744.
四、深度學習部分(待續)
論文打包下載鏈接:
總結
以上是生活随笔為你收集整理的视觉SLAM回环检测、词袋模型和视觉位置识别--论文记录和实验简析的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 计算机视觉--Python实现人体姿态估
- 下一篇: 移动机器人平台-ROS和GitHub链接