ORB特征提取算法分析与实现,算法分解
? 本文對2012年最好的特征檢測論文,進行了評價和分析。以及相關實現的代碼。? ? ? ? ? ? ?本文所來自于原文附件在下面。點擊打開鏈接? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??
??ORB:SIFT或SURF的有效替代算法
Ethan Rublee VincentRabaud Kurt Konolige Gary Bradski
Willow Garage, MenloPark, California
{erublee}{vrabaud}{konolige}{bradski}@willowgarage.com
摘要:
特征匹配是許多計算機視覺的基礎問題,例如目標識別,運動結構算法。當前的方法依賴于大量的描述子進行檢測和匹配。在本文中,我們提出了基于BRIEF算法的快速二進制描述子生成算法,稱為ORB,具有旋轉不變性和抗噪聲能力。我們通過實驗展示了ORB是如何在速度上比SIFT快兩個數量級,而在各種性能上和SIFT一樣優越。其效率是通過各種現實世界的應用來測試,包括了目標檢測和智能手機裂紋追蹤。
1.???? 介紹
SIFT算法關鍵點的檢測子和描述子[17],雖然過去了十多年,但在許多視覺特征應用中,包括目標識別[17],圖像拼接[28],圖像映射[25]等,證明了非常成功。然而,它增加了巨大的計算負擔,特別是針對實時系統,比如說視覺測距儀,或者像手機等低功耗設備。這導致了為降低計算成本而進行密集的搜索。可以說,這其中最好的是SURF[2]。還有研究致力于SIFT加速計算,這其中具有代表性的是GPU[26]。
本文中,我們提出了與SIFT有相似匹配性能的高效計算替代算法,其較少受到圖像噪聲影響,而且能適用于實時處理。我們的主要動機是增強許多常見的圖像匹配應用,例如,使得低功耗設備在無需GPU的情況下,加速實現全景拼接和裂紋追蹤,并且減少在標準PC機進行基于特征的目標檢測時間。我們的描述子在這些任務的處理上和SIFT一樣好(并且優于SURF),但處理時間是比SIFT快兩個數量級。
我們提出的特征是基于著名的FAST關鍵點檢測子[23]和最近性能有所提升的BRIEF描述子得出來的[6];因此我們稱之為ORB(Oriented FAST and Rotated BRIEF)。由于性能好,成本低,這兩個技術都具有吸引力。本文中,我們解決了這些技術的限制點,相對于BRIEF算法顯著的缺少旋轉不變性,我們主要的貢獻是:
? 增加快速,準確的定向點到FAST;
? 有向性的BRIEF特征有效計算;
? 有向性的BRIEF特征方差和相關性分析;
? 一種具有旋轉不變性的去相關BRIEF特征方法,能在最近鄰應用中實現最好的性能。
????? 為了驗證ORB,我們進行了關于ORB相對與SIFT和SURF的特性實驗,包括原始匹配能力,和圖像匹配應用的性能。我們還通過實現智能手機裂紋追蹤來闡述了ORB的高效性。ORB的另外一個好處是它是免費的,但SIFT和 SURF是有專利許可限制的。
圖1:利用ORB算法將現實世界中視角變換的圖像進行匹配的效果圖,
綠線是有效匹配點對,紅圈表面沒有匹配的點。
2.???? 相關工作
關鍵點FAST和它的變量[23,24],是用于在實時系統中尋找關鍵點和匹配視覺特征的可選方法,例如,平行跟蹤和映射[13]。這是有效的,并能找到合理的角點,雖然需要擴大金字塔尺度[14]。在我們的例子中,應用Harris 角點濾波來去除邊緣和提供合理的得分[11]。
包括定向算子在內的許多關鍵點檢測子(SIFT和SURF是兩個最突出的例子),但是FAST不這樣。有許多方法來描述關鍵點的方向,這些涉及梯度直方圖計算,例如SIFT[17]和在SURF[2]中的塊模式近似。這些方法,無論在計算需求,以及例如SURF的較差的近似,都有缺點。Rosin在參考文獻中給出了各種測量角點的方法分析[22],我們借用他的質心技術。與SIFT中的定向算子不同,它的單個關鍵點具有多個值,質心算子給出單個主導關鍵點。
描述子 BRIEF[6]是最近提出的在平滑后的圖像像素間進行簡單二進制測試。它的性能在很多方面和SIFT相似,包括對光照,模糊,透視失真具有魯棒性。然而,它對平面內的旋轉非常敏感。
BRIEF從使用二進制測試去訓練一組分類樹研究中產生[4]。一旦訓練了一組500個數據集或非常典型的關鍵點,分類樹就能用于返回任意關鍵點特征[5]。以類似的方式,我們尋找對定向最不敏感的測試。發現不相關測試的經典方法是主成分分析法。例如,在SIFT算法中使用PCA能消除大量的冗余信息[12]。然而,可能的二進制測試空間太大,不能執行PCA,而是使用窮舉搜索。
視覺詞匯算法[21,27],利用離線聚類來找到不相關的,可以用于匹配的樣本。這種技術也可以用于發現不相關的二進制測試。
與ORB最相關的是采用多尺度的Harris關鍵點和定向的描述子[3]。這種描述子用于圖像拼接,并且顯示出了好的旋轉和尺度不變性。然而,它并沒有我們的方法計算效率高。
3. ?oFAST: FAST Keypoint Orientation
FAST特征由于其計算特性而被廣泛使用。然而,FAST特征沒有定向組件。在本節中,我們添加方向的高效計算。
3.1. ?FAST 檢測子
我們從在圖像中檢測FAST點開始。FAST使用一個參數,即中心像素和圍繞中心的圓環像素的強度閾值。我們使用擁有更好性能的FAST-9(圓半徑為9)。???
FAST不產生角度測量,我們已經發現它沿著邊緣具有較大的響應。利用Harris角點檢測來產生FAST關鍵點[11]。對于目標數量為N的關鍵點,我們首先設定低的閾值來獲得多余N的關鍵點,然后根據Harris角點響應來排序,選擇前N個點。FAST不產生多尺度特征,我們采用圖像尺度金字塔,然后在每層金字塔產生FAST特征(由Harrisl濾波)。
3.2.利用灰度質心定向
我們使用簡單但有效的角點方向檢測,叫做灰度質心[22]。灰度質心法假設角點的灰度和質心之間存在偏移,這個向量能夠計算出一個方向。Rosin將圖像的(p+q)階矩定義為:
???????????????????????????????????????????? ??????????????????
? ? ? ??因此,我們能得到圖像的質心為:
??????????????????????????????????????????? ?????????????????????????????????
我們能得出一個從角點中心到質心的向量, 。特征點的方向為:
?????????????????????????????????????????????? ???????????????????????????? ?(3)
atan2是反正切。Rosin提到,考慮角落是黑暗還是光亮;然而,為了我們的目的,我們可以忽略這一點,因為角度測量是一致的,而不管角類型。為了提高方法的旋轉不變性,需要確保x和y在半徑為 的圓形區域內,即 , 等于鄰域半徑。
我們通過兩個梯度測量來比較了質心法,BIN和MAX。在這兩種情況下,通過一張平滑的圖像來計算X和Y方向的梯度。MAX選擇關鍵點矩的最大梯度;BIN以10度為間隔形成梯度直方圖,并且選擇最大二進制。BIN類似于SIFT算法,雖然它只選擇單個方向。如圖二所示模擬數據集中方向的方差(面內旋轉加上噪聲)。梯度測量執行的很好,而即使在較大的圖像噪聲下,質心也給出了均勻良好的定向。
圖2:旋轉測量。灰度質心在人工旋轉噪聲影響下,
與直方圖算法和MAX算法相比,具有最好的恢復主方向的性能。
4. ?rBRIEF:Rotation-Aware BRIEF
在本節中,我們首先介紹了轉向BRIEF描述子,顯示了如何有效的計算它,并且演示了為什么它實際旋轉性能不佳,然后介紹了為了生成較好的rBRIEF描述子而尋找最少相關的二進制測試的學習步驟,最后提供了和SIFT和SURF的對比數據。
4.1. 具有高效旋轉性能的BRIEF算子
BRIEF的簡要回顧
BRIEF描述子[6]是由圖像特征點的一組二進制測試所形成的比特字符串描述符。假設一副平滑的圖像,特征點領域:p。二進制測試 被定義為:
??????????????????????????????????????????? ???????????????????????????????? ?(4)
????? 其中,p(x)是點x的灰度。這個特征可以由n位二進制測試向量表示:
????????????????????????????????????????? ????????????????????????????????????
在[6]中考慮了用各種不同類型的分布來測試,這里我們選擇了性能最好的分布,圍繞特征點中心的高斯分布,并選擇了n=256的向量長度。
在進行測試前,進行圖形平滑處理是非常重要的。在我們的實現中,采用積分圖像來平滑,在31x31的窗口中,產生一對隨機點后,以隨機點為中心,取5x5的子窗口,比較兩個子窗口內的像素和的大小進行二進制編碼,而非僅僅由兩個隨機點決定二進制編碼。
旋轉BRIEF
我們想讓BRIEF在面內旋轉是不變的。對于面內旋轉超過幾度的BRIEF匹配能力急劇下降(如圖7所示)。Calonder建議在特征點窗口內通過一組旋轉和透視線來計算BRIEF描述子,但這樣的解決方法計算消耗太大。一種更高效的方法是通過關鍵點方向來旋轉BRIEF描述子。對于任意一個特征點,其在位置為( )的n位二進制測試可以2 Xn的矩陣來表示
利用FAST中求出的特征點主方向 ,和對應的旋轉矩陣 ,就能得到旋轉的 來表示S:
,
現在,旋轉的BRIEF算子就變為
???????????????????? ?????????????
我們將角度離散為2π/30(12度)的增量,并構造預計算的BRIEF模式的查找表。只要關鍵點的主方向 正確的一組點 將會用于計算其描述子。
圖3:特征向量的平均值分布:BRIEF,旋轉BRIEF,和rBRIEF。
X軸代表與平均值0.5的距離。
4.2. 方差和相關性
BRIEF的一個較好的特性是每一位特征具有大的方差和接近0.5的均值。圖3顯示了超過10萬個樣本的關鍵點上256位的典型高斯BRIEF模式均值分布。均值為0.5,其每一位特征最大方差為0.25。另一方面,一旦BRIEF是沿著關鍵點的方向給出了旋轉BRIEF,均值就會移動到更加分散的模式(如圖3所示)。理解這一點的方式是定向角點代表了更加均勻的二進制測試。大的方差使得特征點更加容易識別,因為它能對輸入做不同的響應。另一個期望的性質是使測試不相關,因為每個測試將有助于結果分析。為了在BRIEF向量中分析相關性和方差的測試,我們觀察10萬個關鍵點的BRIEF和旋轉BRIEF的響應。結果如圖4所示,運用PCA處理數據,畫出最高的40個特征值。BRIEF和旋轉BRIEF的初始特征值很高,表明了二進制測試的相關性——基本上所有的信息都包含在前10至15個數據里面。旋轉BRIEF具有顯著的低方差,然而,因為特征值比較小,因此不太有差別。顯然,BRIEF取決于關鍵點的隨機方向,以獲得良好的性能。另一個觀點認為旋轉BRIEF的效果表現在內點值和外點的距離分布(圖5)。注意到旋轉的BRIEF,其外點的均值被推向左側,并且和內點有更多的重疊。
圖4:三個特征向量超過100k個關鍵點的PCA分解的特征值分布:
BRIEF,旋轉BRIEF,和rBRIEF。
圖5:虛線代表了關鍵點到外點的距離,實線代表了三個
特征向量:BRIEF,旋轉BRIEF,和rBRIEF的各自內點匹配對間的距離。
4.3. 學習好的二進制特性
為了恢復旋轉BRIEF的方差損失,并且減少二進制測試的相關性,我們提出一種選擇好的二進制測試子集的學習方法。一個可能的策略是使用PCA或其他降維方法,從大的二進制測試集出發,從大的訓練集中辨識出256組具有大方差,不相關的特征。然而,由于新的特征是由許多個二進制測試組成,與旋轉BRIEF相比,在計算上效率非常低。因此,我們開始尋找具有大的方差(均值接近0.5),以及不相關的各種二進制測試。
方法如下,首先建立具有30萬關鍵點的訓練集,從PASCAL 2006[8]數據集中,繪制圖像集。我們還從31 的窗口中枚舉了所有可能的二進制測試。每一個測試是在5 5的子窗口中進行。如果特征點寬度為 的窗口,測試的子窗口寬度為 ,我們能得到 種可能的子窗口。我們從中選擇兩對,可以得到 個二進制測試,消掉重疊的測試,最后有M=205590種可能測試。算法如下:
1.?????針對所有訓練窗口運行每個測試。
2.?????按照距離均值0.5的距離排序,形成向量T。
3.?????貪婪搜索:
(a)???從T中把排第一的那個binary test放到R中,T中就沒有這個測試了;
(b)???然后把T中排下一個的點對與R中所有測試求相關,如果相關值超過某一事先設定的閾值,就扔了它,否則就把這個點對像素比較放到R里面;
(c)????重復上一步直到R中有256個測試為止。如果全找完了也不夠256個,就把閾值升高一些,再重試一遍。?
這個算法是對均值靠近0.5的不相關測試進行貪婪搜索,結果稱為rBRIEF。rBRIEF在方差和相關性上與旋轉BRIEF相比有明顯進步(如圖4)。PCA的特征值較高,它們的下降速度要快得多。有趣的是看到由算法產生的大方差二進制測試(圖6)。在未學習的測試(左圖)中有非常明顯的垂直趨勢,具有高的相關性;學習后的測試顯示出更好的多樣性和低相關性。
圖6:通過考慮主方向大方差(左)和運行學習算法來減少相關性。注意到圍繞
測試軸的關鍵點主方向分布,是指向上方的。顏色編碼顯示每個測試的最大成
對相關性,黑色和紫色最低。學習測試顯然具有較好的分布和較低的相關性。
4.4. 評估
我們使用兩個數據集來評估我們稱為ORB的由oFAST和rBRIEF的組合:具有合成面內旋轉和增加高斯噪聲的圖像,和從不同視點捕獲的紋理平面圖像的真實世界數據集。對每一幅參考圖像,針對每幅圖像的500個關鍵點,我們計算oFAST關鍵點和rBRIEF特征。對每一幅測試圖像(合成旋轉或真實世界視點改變),我們做同樣的測試,然后執行暴力匹配來尋找最佳匹配。結果通過相對于旋轉角度給出匹配正確的百分比。
圖7顯示了增加10的高斯噪聲的合成測試集的結果。可以發現標準的BRIEF算子在10度的時候出現戲劇性的下降。SIFT比SURF效果好,由于其由Harr小波組成,導致在45度存在分層效應。ORB效果最好,超過70%的內點。ORB對高斯圖像噪聲相對免疫,不像SIFT。如果我們畫出內點性能和噪聲的關系,SIFT每增加5個噪聲增量,表現出穩定的10%的下降。ORB也下降,但速率低得多(圖8)。
為了在真實世界測試ORB,我們拍攝了兩套圖像,一套是在室內桌子上的高紋理雜志(圖9),另一個是戶外場景。數據集具有尺度,視點,光照變化。對這套圖像進行簡單的內點/外點測試,我們測出ORB和SIFT,SURF相關的性能。測試按照以下方式進行:
1.?????選取參考視圖 ;
2.?????對于所有 ,找到一個單應性旋轉矩陣 ,將 映射到 ;
3.?????現在,將 作為SIFT,SURF和ORB的描述子匹配參考的標準。
| ? | ? | 內點% | N點 |
| 雜志 | ? | ? | ? |
| ? | ORB | 36.180 | 548.50 |
| ? | SURF | 38.305 | 513.55 |
| ? | SIFT | 34.0.0 | 584.15 |
| 船 | ? | ? | ? |
| ? | ORB | 45.8 | 789 |
| ? | SURF | 28.6 | 795 |
| ? | SIFT | 30.2 | 714 |
ORB在戶外數據集上勝過SIFT和SURF。在戶內數據上性能差不多。[6]發現像SIFT在散亂的圖像上進行一團的關鍵點檢測性能更加優異。
圖7:SIFT,SURF,BRIEF,FAST以及ORB算法在高斯噪聲為10的
合成旋轉下的匹配性能比較
5. 可擴展匹配的二進制特征
在本節中,我們顯示在大的圖像數據庫上實現最近鄰匹配,ORB的性能優于SIFT/SURF。ORB的關鍵部分是方差恢復,這使得最近鄰搜索更有效。
5.1. rBRIEF的局部敏感哈希值
由于rBRIEF是二進制模式,我們選擇局部敏感哈希值作為我們最近鄰搜索。在LSH中,點被存儲在數個哈希表中,并且散列在不同地方。給定一個查詢描述子,檢索其匹配的區域,并使用暴力匹配來比較其元素。該技術的能力在于它能夠在給定足夠的哈希表的情況下以最高概率檢索最近鄰值。
對于二進制特征,哈希函數只是標志位的子集:哈希表的區域包含公共子標志的描述子。距離是漢明距離。我們使用多探針LSH[18],它通過查看相鄰區域的查詢描述子來提高傳統的LSH。雖然這可能導致更多的匹配需要檢查,但它實際上允許少數量的哈希表(因此更少的RAM消耗)和較長的子標志位,因此更少的查詢區域。
圖8:SIFT和rBRIEF在噪聲下的匹配表現。噪聲級別在0,5,10,15,20和25。
SIFT性能有很大程度下降,而rBRIEF性能相對不變。
圖9:一個充滿雜志和戶外場景的現實世界數據圖。第一列的圖像和第二列
的圖像匹配。最后一列是第一列變換到第二列的旋轉圖像。
5.2. 相關和調平
rBRIEF通過使哈希表的區域更加均勻來提高LSH的速度:因為比特較少相關,哈希函數在數據分割中做的更好。如圖10所示,哈希區域在和旋轉BRIEF或正常的BRIEF比較中,小得多。
5.3. 評估
我們將使用kd樹的rBRIEF LSH,使用FLANN的SIFT特征進行性能比較。我們在Pascal 2009數據集上訓練不同的描述子,并使用與[1]中相同的仿射變換對這些圖像的采樣彎曲版本進行測試。
我們的多探針LSH使用位元組來加速哈希圖中關鍵點的存在。它還使用SSE 4.2優化后popcount來計算漢明距離。
圖11建立了具有SIFT(SURF等效)的kd樹的速度和精確度與具有rBRIEF的LSH之間的相關性。當在正確的數據庫圖像中找到超過50個描述子時,發生了測試圖像的成功匹配。我們發現LSH比kd樹快,最有可能是由于其簡單性和速度計算的速度。LSH還在準確性方面提供更多的靈活性,這在袋特性方法中很有趣[21,27]。我們也可以注意到,由于其不均勻的區域,旋轉BRIEF要慢得多。
圖10:用兩個不同的數據集來在BRIEF,旋轉BRIEF和rBRIEF描述子上訓練LSH。
訓練耗時小于2分鐘,主要受到硬盤IO速度限制。
圖11:速度和精度對比。描述子在訓練好的旋轉圖像上測試。我們利用1,2和3kd_trees來進行SIFT,4到20哈希表使用rBRIEF,16到40用旋轉BRIEF。
在SIFT上進行1.6M次最近鄰搜索,在rBRIEF上進行1.8M次最近鄰搜索。
6. 應用
6.1. 基準
ORB的一個重點是在標準CPU上檢測和描述的效率。我們規范的ORB檢測子采用oFAST檢測子和rBRIEF描述子。以縮放因子為 在圖像的五個尺度上分別計算。我們使用基于面積的插值法來有效?? 提取。
ORB系統在大小為640 480的每個典型幀中分解為以下時間。該代碼在一個單線程的Intel i7 2.8GHz處理器上執行:
| ORB: | Pyramid | oFAST | rBRIEF |
| Time(ms) | 4.43—— | 8.68—— | 2.12 |
當在具有5個尺度的2686張圖像的數據集上計算ORB時,它能夠在42s內檢測和計算超過2 個特征。在相同的數據上,具有相同數量的特征(大約1000個)以及相同的尺度上,與SIFT和SURF相比,我們得到以下時間:
| Detector | ORB | SURF | SIFT |
| Time per frame (ms) | 15.3—— | 217.3—— | 5228.7 |
這些時間是從Pascal數據集中取得平均超過24張640 的圖像。ORB比SURF快一個數量級,比SIFT快兩個數量級。
圖12:兩張用于標定的目標識別位置估計圖像。藍色特征是疊加在查詢圖像上
的訓練特征,以表明目標的姿態被正確發現。還會為每個物體顯示粉色
的軸線。左邊圖像丟失兩個目標,全部在右邊找到。
6.2. 紋理對象檢測
我們通過實現一個類似于[19]的常規目標識別流水線,應用rBRIEF來目標識別:我們首先檢測oFAST特征和rBRIEF描述子,與我們的數據庫進行比對,然后執行PROSAC[7]和EPnP[16]進行姿態估計。
我們的數據庫包含49個家庭物品,每個采用24個視圖,使用2D相機和Microsoft的Kinect設備拍攝。測試數據由在不同視點和遮擋下的那些相同對象的子集的2D圖像組成。為了形成匹配,我們要求描述子被匹配,但也能計算姿態。最后,我們的流水線檢索61%的對象,如圖12所示。該算法在200MB的數據庫中處理1.2M個描述子,并且具有早先顯示時間相同的時序(平均14ms用于檢測,17ms用于LSH匹配)。通過不將所有查詢描述子與訓練的數據匹配,流水線可以顯著的加速,但是我們的目標只是顯示用ORB檢測對象的可行性。
6.3. 嵌入式實時特征追蹤
在電話上的追蹤涉及將當前幀與先前捕獲的關鍵幀進行匹配。描述子與關鍵幀一起存儲,假設包含良好紋理的平面表面。我們對每個進來的幀進行ORB處理,并對關鍵幀描述子進行暴力匹配。來自描述子距離的推定匹配用于PROSAC最佳單應性匹配H。
雖然有可以在手機上運行的實時特征追蹤器[15],他們通常在非常小的圖像上(例如,120 )操作并且具有非常少的特征。與我們的類似的系統[30]通常每一幅圖像占用1秒鐘。我們能夠在手機上以7Hz速度運行具有640 480分辨率的ORB,手機帶有1GHz的ARM芯片和512MB的RAM,Android的OpenCV端口用于實現。這里是每幅圖像約400個點的基準:
| ? | ORB | Matching | H Fit |
| Time (ms) | 66.6—— | 72.8—— | 20.9 |
7. 結論
在本文中,我們定義了新的定向描述子,ORB,并展示了相對于其他流行的特征算法的性能和效率。為了在最近鄰應用中獲得良好的性能,定向方差的查詢對于構建ORB和對其元素進行去相關是至關重要的。我們還通過OpenCV 2.3為社區貢獻了BSD許可的ORB實現。
我們還未充分解決的問題是尺度不變性。雖然我們在尺度上使用金字塔方案,但我們沒有從深層次原因來探討關鍵點尺度,調整八度的數量等。未來的工作還包括GPU/SSE的優化,這可以將LSH提高另一個數量級。
?
參考文獻
[1] M. Aly, P. Welinder, M. Munich, and P.Perona. Scaling object recognition: Benchmark of current state of the art techniques.InFirst IEEE Workshop on Emergent Issues in Large Amounts of VisualData (WS-LAVD), IEEE International Conference on Computer Vision (ICCV),September 2009.6
[2] H. Bay, T. Tuytelaars, and L. Van Gool.Surf: Speeded up robust features. InEuropean Conference on Computer Vision,May 2006.1,2
[3] M. Brown, S. Winder, and R. Szeliski.Multi-image matching using multi-scale oriented patches. InComputer Visionand Pattern Recognition, pages 510–517, 2005.2
[4] M. Calonder, V. Lepetit, and P. Fua.Keypoint signatures for fast learning and recognition. InEuropeanConference on Computer Vision, 2008.2
[5] M. Calonder, V. Lepetit, K. Konolige, P.Mihelich, and P. Fua. High-speed keypoint description and matching using densesignatures. InUnder review, 2009.2
[6] M. Calonder, V. Lepetit, C. Strecha, andP. Fua. Brief: Binary robust independent elementary features. InIn EuropeanConference on Computer Vision, 2010.1,2,3,5
[7] O. Chum and J. Matas. Matching withPROSAC – progressive sample consensus. In C. Schmid, S. Soatto,
And C. Tomasi, editors, Proc. ofConference on Computer Vision and Pattern Recognition (CVPR), volume 1,pages 220–226,Los Alamitos, USA, June 2005. IEEE Computer Society.7
[8] M. Everingham. The PASCAL Visual Object ClassesChallenge 2006 (VOC2006) Results.http://pascallin.ecs.soton.ac.uk/challenges/VOC/databases.html.4
[9] M. Everingham, L. Van Gool, C. K. I.Williams, J. Winn, and A. Zisserman. The PASCAL Visual Object Classes Challenge2009 (VOC2009) Results.http://www.pascalnetwork.org/challenges/VOC/voc2009/workshop/index.html.6, 7
[10] A. Gionis, P. Indyk, and R. Motwani.Similarity search in high dimensions via hashing. In M. P. Atkinson, M. E.Orlowska, P. Valduriez, S. B. Zdonik, andM. L. Brodie, editors,VLDB’99,Proceedings of 25th International Conference on Very Large Data Bases,September 7-10, 1999, Edinburgh, Scotland, UK, pages 518–529. MorganKaufmann, 1999. 6
[11] C. Harris and M. Stephens. A combinedcorner and edge detector. InAlvey Vision Conference, pages 147 151,1988.2
[12] Y. Ke and R. Sukthankar. Pca-sift: Amore distinctive representation for local image descriptors. InComputerVision and Pattern Recognition, pages 506–513, 2004. 2
[13] G. Klein and D. Murray. Paralleltracking and mapping for small AR workspaces. InProc. Sixth IEEE and ACMInternational Symposium on Mixed and Augmented Reality (ISMAR’ 07),Nara, Japan, November 2007.1
[14] G. Klein and D. Murray. Improving theagility of keyframebased SLAM. InEuropean Conference on Computer Vision,2008. 2
[15] G. Klein and D. Murray. Paralleltracking and mapping on a camera phone. InProc. Eigth IEEE and ACMInternational Symposium on Mixed and Augmented Reality (ISMAR’09), Orlando,October 2009. 7
[16] V. Lepetit, F.Moreno-Noguer, and P. Fua.EPnP: An accurate O(n) solution to the pnp problem.Int. J. Comput. Vision,81:155–166, February 2009. 7
[17] D. G. Lowe. Distinctive image featuresfrom scale-invarian keypoints.International Journal of Computer Vision,60(2):91–110, 2004. 1, 2
[18] Q. Lv, W. Josephson, Z. Wang, M.Charikar, and K. Li. Multi-probe LSH: efficient indexing for high-dimensional similaritysearch. InProceedings of the 33rd international conference on Verylarge data bases, VLDB ’07, pages 950– 961. VLDB Endowment, 2007. 6
[19] M. Martinez, A. Collet, and S. S.Srinivasa. MOPED: A Scalable and low Latency Object Recognition and Pose EstimationSystem. InIEEE International Conference on Robotics and Automation.IEEE, 2010. 7
[20] M. Muja and D. G. Lowe. Fast approximatenearest neighbors with automatic algorithm configuration.VISAPP, 2009. 6
[21] D. Nist′er and H. Stew′enius. Scalablerecognition with a vocabulary tree. InCVPR, 2006. 2, 6
[22] P. L. Rosin. Measuring cornerproperties. Computer Vision and Image Understanding, 73(2):291 – 307,1999. 2
[23] E. Rosten and T. Drummond. Machinelearning for highspeed corner detection. InEuropean Conference on ComputerVision, volume 1, 2006. 1
[24] E. Rosten, R. Porter, and T. Drummond.Faster and better :A machine learning approach to corner detection.IEEETrans. Pattern Analysis and Machine Intelligence, 32:105–119, 2010. 1
[25] S. Se, D. Lowe, and J. Little. Mobilerobot localization and mapping with uncertainty using scale-invariant visuallandmarks.International Journal of Robotic Research, 21:735– 758,August 2002. 1
[26] S. N. Sinha, J. michael Frahm, M.Pollefeys, and Y. Genc. Gpu-based video feature tracking and matching.Technical report, In Workshop on Edge Computing Using New Commodity Architectures,2006. 1
[27] J. Sivic and A. Zisserman. Video google:A text retrieval approach to object matching in videos.InternationalConference on Computer Vision, page 1470, 2003. 2, 6
[28] N. Snavely, S. M. Seitz, and R.Szeliski. Skeletal sets for efficient structure from motion. InProc.Computer Vision and Pattern Recognition, 2008. 1
[29] G.Wang, Y. Zhang, and L. Fei-Fei. Usingdependent regions for object categorization in a generative framework, 2006. 6
[30] A. Weimert, X. Tan, and X. Yang. Naturalfeature detection on mobile phones with 3D FAST.Int. J. of Virtual Reality,9:29–34, 2010. 7
總結
以上是生活随笔為你收集整理的ORB特征提取算法分析与实现,算法分解的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 奔驰标志一个 多少元?
- 下一篇: 有亲在纽约吗?请教纽约资深IT工程师年薪