OpenCV-图像的基本处理-02
灰度圖
import cv2 #opencv讀取的格式是BGR import numpy as np import matplotlib.pyplot as plt#Matplotlib是RGB %matplotlib inline img=cv2.imread('cat.jpg') img_gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY) img_gray.shapeHSV
H - 色調(主波長)。
S - 飽和度(純度/顏色的陰影)。
V值(強度)
圖像閾值
ret, dst = cv2.threshold(src, thresh, maxval, type)
src: 輸入圖,只能輸入單通道圖像,通常來說為灰度圖
dst: 輸出圖
thresh: 閾值
maxval: 當像素值超過了閾值(或者小于閾值,根據type來決定),所賦予的值
type:二值化操作的類型,包含以下5種類型: cv2.THRESH_BINARY; cv2.THRESH_BINARY_INV; cv2.THRESH_TRUNC; cv2.THRESH_TOZERO;cv2.THRESH_TOZERO_INV
cv2.THRESH_BINARY 超過閾值部分取maxval(最大值),否則取0
cv2.THRESH_BINARY_INV THRESH_BINARY的反轉
cv2.THRESH_TRUNC 大于閾值部分設為閾值,否則不變
cv2.THRESH_TOZERO 大于閾值部分不改變,否則設為0
cv2.THRESH_TOZERO_INV THRESH_TOZERO的反轉
圖像平滑
img = cv2.imread('lenaNoise.png')cv2.imshow('img', img) cv2.waitKey(0) cv2.destroyAllWindows() # 均值濾波 # 簡單的平均卷積操作 blur = cv2.blur(img, (3, 3))# 輸入的圖像數據 大小3*3cv2.imshow('blur', blur) # 繪圖名字,繪制的圖片 cv2.waitKey(0) cv2.destroyAllWindows() # 方框濾波 # 基本和均值一樣,可以選擇歸一化 box = cv2.boxFilter(img,-1,(3,3), normalize=True) # 需要處理的圖片數據,-1表示一直,卷積核3*3cv2.imshow('box', box) cv2.waitKey(0) cv2.destroyAllWindows() # 方框濾波 # 基本和均值一樣,可以選擇歸一化,normalize=False容易越界 超過最大值255 box = cv2.boxFilter(img,-1,(3,3), normalize=False) cv2.imshow('box', box) cv2.waitKey(0) cv2.destroyAllWindows() # 高斯濾波 # 高斯模糊的卷積核里的數值是滿足高斯分布,相當于更重視中間的 aussian = cv2.GaussianBlur(img, (5, 5), 1) cv2.imshow('aussian', aussian) cv2.waitKey(0) cv2.destroyAllWindows() # 中值濾波 # 相當于用中值代替 median = cv2.medianBlur(img, 5) # 中值濾波cv2.imshow('median', median) cv2.waitKey(0) cv2.destroyAllWindows() # 展示所有的 # np.hstack 橫屏展示 np.vstack 豎屏展示 res = np.hstack((blur,aussian,median))# 使用np.hstack把 上面的均值 高斯 中值 濾波連在一下 #print (res) cv2.imshow('median vs average', res) cv2.waitKey(0) cv2.destroyAllWindows()形態學-腐蝕操作
import cv2 import numpy as np img = cv2.imread('dige.png')cv2.imshow('img', img) cv2.waitKey(0) cv2.destroyAllWindows() kernel = np.ones((3,3),np.uint8) # 核 erosion = cv2.erode(img,kernel,iterations = 1)# 傳入img ,核 ,指定迭代次數cv2.imshow('erosion', erosion) cv2.waitKey(0) cv2.destroyAllWindows() pie = cv2.imread('pie.png')cv2.imshow('pie', pie) cv2.waitKey(0) cv2.destroyAllWindows() kernel = np.ones((30,30),np.uint8) erosion_1 = cv2.erode(pie,kernel,iterations = 1) erosion_2 = cv2.erode(pie,kernel,iterations = 2) erosion_3 = cv2.erode(pie,kernel,iterations = 3)res = np.hstack((pie,erosion_1,erosion_2,erosion_3)) cv2.imshow('res', res) cv2.imwrite('pie_erode_res.jpg',res) cv2.waitKey(0) cv2.destroyAllWindows()形態學-膨脹操作
# 繪制原圖 img = cv2.imread('dige.png') cv2.imshow('img', img) cv2.waitKey(0) cv2.destroyAllWindows() # 腐蝕 kernel = np.ones((3,3),np.uint8) # 核 dige_erosion = cv2.erode(img,kernel,iterations = 1) # 傳入img ,核 ,指定迭代次數cv2.imshow('erosion', erosion) cv2.waitKey(0) cv2.destroyAllWindows() # 膨脹 我們可以看出線條變粗了 kernel = np.ones((5,5),np.uint8) dige_dilate = cv2.dilate(dige_erosion,kernel,iterations = 1)# 傳入腐蝕后的結果,核數,迭代次數cv2.imshow('dilate', dige_dilate) cv2.waitKey(0) cv2.destroyAllWindows() pie = cv2.imread('pie.png')kernel = np.ones((30,30),np.uint8) dilate_1 = cv2.dilate(pie,kernel,iterations = 1) dilate_2 = cv2.dilate(pie,kernel,iterations = 2) dilate_3 = cv2.dilate(pie,kernel,iterations = 3) res = np.hstack((dilate_1,dilate_2,dilate_3)) cv2.imshow('res', res) cv2.waitKey(0) cv2.destroyAllWindows()開運算與閉運算
# 開:先腐蝕,再膨脹 img = cv2.imread('dige.png')kernel = np.ones((5,5),np.uint8) opening = cv2.morphologyEx(img, cv2.MORPH_OPEN, kernel)cv2.imshow('opening', opening) cv2.waitKey(0) cv2.destroyAllWindows() # 閉:先膨脹,再腐蝕 img = cv2.imread('dige.png')kernel = np.ones((5,5),np.uint8) closing = cv2.morphologyEx(img, cv2.MORPH_CLOSE, kernel)cv2.imshow('closing', closing) cv2.waitKey(0) cv2.destroyAllWindows()梯度運算
# 梯度=膨脹-腐蝕 pie = cv2.imread('pie.png') # 讀入圖片 kernel = np.ones((7,7),np.uint8) # 核數7*7 dilate = cv2.dilate(pie,kernel,iterations = 5) # 傳入圖片 核數 迭代 erosion = cv2.erode(pie,kernel,iterations = 5)res = np.hstack((dilate,erosion))cv2.imshow('res', res) cv2.waitKey(0) cv2.destroyAllWindows() gradient = cv2.morphologyEx(pie, cv2.MORPH_GRADIENT, kernel)# 傳入圖片 梯度運算 核數cv2.imshow('gradient', gradient) cv2.waitKey(0) cv2.destroyAllWindows()禮帽與黑帽
禮帽 = 原始輸入-開運算結果
黑帽 = 閉運算-原始輸入
圖像梯度-Sobel算子
# 讀取圖片 import cv2 img = cv2.imread('pie.png',cv2.IMREAD_GRAYSCALE) cv2.imshow("img",img) cv2.waitKey() cv2.destroyAllWindows()
dst = cv2.Sobel(src, ddepth, dx, dy, ksize)
ddepth:圖像的深度
dx和dy分別表示水平和豎直方向
ksize是Sobel算子的大小
白到黑是正數,黑到白就是負數了,所有的負數會被截斷成0,所以要取絕對值
sobelx = cv2.Sobel(img,cv2.CV_64F,1,0,ksize=3) sobelx = cv2.convertScaleAbs(sobelx) cv_show(sobelx,'sobelx') sobely = cv2.Sobel(img,cv2.CV_64F,0,1,ksize=3) sobely = cv2.convertScaleAbs(sobely) cv_show(sobely,'sobely')
分別計算x和y,再求和
不建議直接計算
img = cv2.imread(‘lena.jpg’,cv2.IMREAD_GRAYSCALE)
sobelxy=cv2.Sobel(img,cv2.CV_64F,1,1,ksize=3) sobelxy = cv2.convertScaleAbs(sobelxy) cv_show(sobelxy,‘sobelxy’)
Canny邊緣檢測
使用高斯濾波器,以平滑圖像,濾除噪聲。
計算圖像中每個像素點的梯度強度和方向。
應用非極大值(Non-Maximum Suppression)抑制,以消除邊緣檢測帶來的雜散響應。
應用雙閾值(Double-Threshold)檢測來確定真實的和潛在的邊緣。
通過抑制孤立的弱邊緣最終完成邊緣檢測。
圖像金字塔
高斯金字塔
拉普拉斯金字塔
拉普拉斯金字塔
down=cv2.pyrDown(img) down_up=cv2.pyrUp(down) l_1=img-down_up cv_show(l_1,'l_1')圖像輪廓
cv2.findContours(img,mode,method)
mode:輪廓檢索模式
RETR_EXTERNAL :只檢索最外面的輪廓;
RETR_LIST:檢索所有的輪廓,并將其保存到一條鏈表當中;
RETR_CCOMP:檢索所有的輪廓,并將他們組織為兩層:頂層是各部分的外部邊界,第二層是空洞的邊界;
RETR_TREE:檢索所有的輪廓,并重構嵌套輪廓的整個層次**(常用)**;
method:輪廓逼近方法
CHAIN_APPROX_NONE:以Freeman鏈碼的方式輸出輪廓,所有其他方法輸出多邊形(頂點的序列)。
CHAIN_APPROX_SIMPLE:壓縮水平的、垂直的和斜的部分,也就是,函數只保留他們的終點部分。
為了更高的準確率,使用二值圖像.
原圖
轉換后
繪制輪廓
輪廓特征
img = cv2.imread('contours.png') # 讀取圖片 gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) # 轉換成灰度圖 ret, thresh = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY) # 使用二值方法 cv_show(thresh,'thresh') binary,contours, hierarchy = cv2.findContours(thresh, cv2.RETR_TREE, cv2.CHAIN_APPROX_NONE) # print(contours)提取輪廓 # print(hierarchy) cnt = contours[0] # [0] 表示第0個輪廓 #面積 cv2.contourArea(cnt) #周長,True表示閉合的 cv2.arcLength(cnt,True)輪廓近似
img = cv2.imread('contours2.png') # 讀取圖片gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) # 灰度 ret, thresh = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY)# 二值處理 binary,contours, hierarchy = cv2.findContours(thresh, cv2.RETR_TREE, cv2.CHAIN_APPROX_NONE)# 找尋輪廓 cnt = contours[0]draw_img = img.copy() res = cv2.drawContours(draw_img, [cnt], -1, (0, 0, 255), 2) #傳入繪制圖像,輪廓,輪廓索引,顏色模式,線條厚度 cv_show(res,'res') epsilon = 0.1*cv2.arcLength(cnt,True) # 計算周長 approx = cv2.approxPolyDP(cnt,epsilon,True)# 近似draw_img = img.copy() res = cv2.drawContours(draw_img, [approx], -1, (0, 0, 255), 2)#傳入繪制圖像,輪廓,輪廓索引,顏色模式,線條厚度 cv_show(res,'res')邊界矩形
img = cv2.imread('contours.png')gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) ret, thresh = cv2.threshold(gray, 127, 255, cv2.THRESH_BINARY) binary,contours, hierarchy = cv2.findContours(thresh, cv2.RETR_TREE, cv2.CHAIN_APPROX_NONE) cnt = contours[2] # 表示第2個輪廓x,y,w,h = cv2.boundingRect(cnt) img = cv2.rectangle(img,(x,y),(x+w,y+h),(0,255,0),2) cv_show(img,'img') area = cv2.contourArea(cnt) x, y, w, h = cv2.boundingRect(cnt) rect_area = w * h extent = float(area) / rect_area print ('輪廓面積與邊界矩形比',extent)
外接圓
模板匹配
模板匹配和卷積原理很像,模板在原圖像上從原點開始滑動,計算模板與(圖像被模板覆蓋的地方)的差別程度,這個差別程度的計算方法在opencv里有6種,然后將每次計算的結果放入一個矩陣里,作為結果輸出。假如原圖形是AxB大小,而模板是axb大小,則輸出結果的矩陣是(A-a+1)x(B-b+1)
TM_SQDIFF:計算平方不同,計算出來的值越小,越相關
TM_CCORR:計算相關性,計算出來的值越大,越相關
TM_CCOEFF:計算相關系數,計算出來的值越大,越相關
TM_SQDIFF_NORMED:計算歸一化平方不同,計算出來的值越接近0,越相關
TM_CCORR_NORMED:計算歸一化相關性,計算出來的值越接近1,越相關
TM_CCOEFF_NORMED:計算歸一化相關系數,計算出來的值越接近1,越相關
公式:https://docs.opencv.org/3.3.1/df/dfb/group__imgproc__object.html#ga3a7850640f1fe1f58fe91a2d7583695d
import cv2 import numpy as np # 模板匹配 img = cv2.imread('lena.jpg', 0)# 讀取圖像 灰度圖 template = cv2.imread('face.jpg', 0)# 讀取圖像 h, w = template.shape[:2] # 模板匹配 圖像1 圖像2 指定模板方法 res = cv2.matchTemplate(img, template, cv2.TM_SQDIFF) res.shape min_val, max_val, min_loc, max_loc = cv2.minMaxLoc(res)# 定位 # 畫矩形 img2 = img.copy() bottom_right = (min_loc[0] + w, min_loc[1] + h) cv2.rectangle(img2, min_loc, bottom_right, 255, 2) plt.subplot(121), plt.imshow(res, cmap='gray') plt.subplot(122), plt.imshow(img2, cmap='gray') plt.suptitle(meth) plt.show()六種模板方法差異
methods = ['cv2.TM_CCOEFF', 'cv2.TM_CCOEFF_NORMED', 'cv2.TM_CCORR','cv2.TM_CCORR_NORMED', 'cv2.TM_SQDIFF', 'cv2.TM_SQDIFF_NORMED'] # 六種普通的模板方法差異 for meth in methods:img2 = img.copy()# 匹配方法的真值method = eval(meth)print (method)res = cv2.matchTemplate(img, template, method)min_val, max_val, min_loc, max_loc = cv2.minMaxLoc(res)# 如果是平方差匹配TM_SQDIFF或歸一化平方差匹配TM_SQDIFF_NORMED,取最小值if method in [cv2.TM_SQDIFF, cv2.TM_SQDIFF_NORMED]:top_left = min_locelse:top_left = max_locbottom_right = (top_left[0] + w, top_left[1] + h)# 畫矩形cv2.rectangle(img2, top_left, bottom_right, 255, 2)plt.subplot(121), plt.imshow(res, cmap='gray')plt.xticks([]), plt.yticks([]) # 隱藏坐標軸plt.subplot(122), plt.imshow(img2, cmap='gray')plt.xticks([]), plt.yticks([])plt.suptitle(meth)plt.show()
匹配多個對象
import cv2 import numpy as np img_rgb = cv2.imread('mario.jpg')# 讀取圖像 img_gray = cv2.cvtColor(img_rgb, cv2.COLOR_BGR2GRAY) template = cv2.imread('mario_coin.jpg', 0) h, w = template.shape[:2]res = cv2.matchTemplate(img_gray, template, cv2.TM_CCOEFF_NORMED)# 模板匹配 threshold = 0.8 # 取匹配程度大于%80的坐標 loc = np.where(res >= threshold) for pt in zip(*loc[::-1]): # *號表示可選參數bottom_right = (pt[0] + w, pt[1] + h)cv2.rectangle(img_rgb, pt, bottom_right, (0, 0, 255), 2)cv2.imshow('img_rgb', img_rgb) cv2.waitKey(0)直方圖
cv2.calcHist(images,channels,mask,histSize,ranges)
images: 原圖像圖像格式為 uint8 或 ?oat32。當傳入函數時應 用中括號 [] 括來例如[img]
channels: 同樣用中括號括來它會告函數我們統幅圖 像的直方圖。如果入圖像是灰度圖它的值就是 [0]如果是彩色圖像 的傳入的參數可以是 [0][1][2] 它們分別對應著 BGR。
mask: 掩模圖像。統整幅圖像的直方圖就把它為 None。但是如 果你想統圖像某一分的直方圖的你就制作一個掩模圖像并 使用它。
histSize:BIN 的數目。也應用中括號括來
ranges: 像素值范圍常為 [0-256]
mask操作
直方圖均衡化
自適應直方圖均衡化
傅里葉變換
我們生活在時間的世界中,早上7:00起來吃早飯,8:00去擠地鐵,9:00開始上班。。。以時間為參照就是時域分析。
但是在頻域中一切都是靜止的!
https://zhuanlan.zhihu.com/p/19763358
傅里葉變換的作用
高頻:變化劇烈的灰度分量,例如邊界
低頻:變化緩慢的灰度分量,例如一片大海
濾波
低通濾波器:只保留低頻,會使得圖像模糊
高通濾波器:只保留高頻,會使得圖像細節增強
opencv中主要就是cv2.dft()和cv2.idft(),輸入圖像需要先轉換成np.float32 格式。
得到的結果中頻率為0的部分會在左上角,通常要轉換到中心位置,可以通過shift變換來實現。
cv2.dft()返回的結果是雙通道的(實部,虛部),通常還需要轉換成圖像格式才能展示(0,255)。
總結
以上是生活随笔為你收集整理的OpenCV-图像的基本处理-02的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: OpenCV-图像的基本操作-01
- 下一篇: OpenCV-信用卡数字识别-03