特征匹配 + 单应性查找对象
在本章節中, - 我們將把calib3d模塊中的特征匹配和findHomography混合在一起,以在復雜圖像中找到已知對象。
上節中,我們使用了queryImage,找到了其中的一些特征點,我們使用了另一個trainImage,也找到了該圖像中的特征,并且找到了其中的最佳匹配。簡而言之,我們在另一個混亂的圖像中找到了對象某些部分的位置。此信息足以在trainImage上準確找到對象。
為此,**我們可以使用calib3d模塊中的函數,即cv.findHomography()。如果我們從兩個圖像中傳遞點集,它將找到該對象的透視變換。然后,我們可以使用cv.perspectiveTransform()查找對象。**找到轉換至少需要四個正確的點。
我們已經看到,匹配時可能會出現一些可能影響結果的錯誤。為了解決這個問題,算法使用RANSAC或LEAST_MEDIAN(可以由標志決定)。因此,提供正確估計的良好匹配稱為“內部點”,其余的稱為“外部點”。cv.findHomography()返回指定內部和外部點的掩碼。
??在圖像中找到SIFT功能并應用比例測試以找到最佳匹配。
現在我們設置一個條件,即至少有10個匹配項(由MIN_MATCH_COUNT定義)可以找到對象。否則,只需顯示一條消息,說明沒有足夠的匹配項。
如果找到足夠的匹配項,我們將在兩個圖像中提取匹配的關鍵點的位置。他們被傳遞以尋找預期的轉變。一旦獲得了這個3x3轉換矩陣,就可以使用它將索引圖像的角轉換為訓練圖像中的相應點。然后我們畫出來。
if len(good)>MIN_MATCH_COUNT:src_pts = np.float32([ kp1[m.queryIdx].pt for m in good ]).reshape(-1,1,2)dst_pts = np.float32([ kp2[m.trainIdx].pt for m in good ]).reshape(-1,1,2)M, mask = cv.findHomography(src_pts, dst_pts, cv.RANSAC,5.0)matchesMask = mask.ravel().tolist()h,w,d = img1.shapepts = np.float32([ [0,0],[0,h-1],[w-1,h-1],[w-1,0] ]).reshape(-1,1,2)dst = cv.perspectiveTransform(pts,M)img2 = cv.polylines(img2,[np.int32(dst)],True,255,3, cv.LINE_AA) else:print( "Not enough matches are found - {}/{}".format(len(good), MIN_MATCH_COUNT) )matchesMask = None最后,我們繪制內部線(如果成功找到對象)或匹配關鍵點(如果失敗)。
draw_params = dict(matchColor = (0,255,0), # 用綠色繪制匹配singlePointColor = None,matchesMask = matchesMask, # 只繪制內部點flags = 2) img3 = cv.drawMatches(img1,kp1,img2,kp2,good,None,**draw_params) plt.imshow(img3, 'gray'),plt.show()對象在混亂的圖像中標記為白色的顯示結果:
總結
以上是生活随笔為你收集整理的特征匹配 + 单应性查找对象的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Linux/Unix下的任务管理器-to
- 下一篇: 图解linux下top命令的使用