本系列文章由@淺墨_毛星云 出品,轉載請注明出處。??
文章鏈接:?http://blog.csdn.net/poem_qianmo/article/details/21176257
作者:毛星云(淺墨)????郵箱:?happylifemxy@163.com?
寫作當前博文時配套使用的OpenCV版本: 2.4.8
上篇文章中我們講到了使用addWeighted函數進行圖像混合操作,以及將ROI和addWeighted函數結合起來使用,對指定區域進行圖像混合操作。
而為了更好的觀察一些圖像材料的特征,有時需要對RGB三個顏色通道的分量進行分別顯示和調整。通過OpenCV的split和merge方法可以很方便的達到目的。
這就是我們這篇文章的主要內容。依然是先看一張截圖吧:
?
一、分離顏色通道
就讓我們來詳細介紹一下這兩個互為冤家的函數。首先是進行通道分離的split函數。
<1>split函數詳解
將一個多通道數組分離成幾個單通道數組。ps:這里的array按語境譯為數組或者陣列。
?
這個split函數的C++版本有兩個原型,他們分別是:
?
C++: void split(const Mat& src, Mat*mvbegin);C++: void split(InputArray m,OutputArrayOfArrays mv);
關于變量介紹:
?
- 第一個參數,InputArray類型的m或者const Mat&類型的src,填我們需要進行分離的多通道數組。
- 第二個參數,OutputArrayOfArrays類型的mv,填函數的輸出數組或者輸出的vector容器。
?
?
就如上一節中講到方法一樣,這里的OutputArrayOfArrays我們通過【轉到定義】大法,可以查到它是_OutputArray的引用,那么我們在源代碼中再次通過【轉到定義】看到_OutputArray類的原型,即是OutputArrayOfArrays的原型:
?
class CV_EXPORTS _OutputArray : public_InputArray{public:_OutputArray(); _OutputArray(Mat& m); template<typename _Tp> _OutputArray(vector<_Tp>& vec); template<typename _Tp> _OutputArray(vector<vector<_Tp>>& vec);_OutputArray(vector<Mat>& vec); template<typename _Tp> _OutputArray(vector<Mat_<_Tp>>& vec); template<typename _Tp> _OutputArray(Mat_<_Tp>& m); template<typename _Tp, int m, int n> _OutputArray(Matx<_Tp, m,n>& matx); template<typename _Tp> _OutputArray(_Tp* vec, int n);_OutputArray(gpu::GpuMat& d_mat);_OutputArray(ogl::Buffer& buf);_OutputArray(ogl::Texture2D& tex); _OutputArray(constMat& m); template<typename _Tp> _OutputArray(const vector<_Tp>&vec); template<typename _Tp> _OutputArray(constvector<vector<_Tp> >& vec);_OutputArray(const vector<Mat>& vec); template<typename _Tp> _OutputArray(const vector<Mat_<_Tp>>& vec); template<typename _Tp> _OutputArray(const Mat_<_Tp>& m); template<typename _Tp, int m, int n> _OutputArray(constMatx<_Tp, m, n>& matx); template<typename _Tp> _OutputArray(const _Tp* vec, int n);_OutputArray(const gpu::GpuMat& d_mat);_OutputArray(const ogl::Buffer& buf);_OutputArray(const ogl::Texture2D& tex); virtual bool fixedSize() const; virtual bool fixedType() const; virtual bool needed() const; virtual Mat& getMatRef(int i=-1) const; gpu::GpuMat& getGpuMatRef() const; ogl::Buffer& getOGlBufferRef() const; ogl::Texture2D& getOGlTexture2DRef() const; virtual void create(Size sz, int type, int i=-1, bool allowTransposed=false,int fixedDepthMask=0) const; virtual void create(int rows, int cols, int type, int i=-1, boolallowTransposed=false, int fixedDepthMask=0) const; virtual void create(int dims, const int* size, int type, int i=-1, boolallowTransposed=false, int fixedDepthMask=0) const; virtual void release() const; virtual void clear() const; #ifdefOPENCV_CAN_BREAK_BINARY_COMPATIBILITY virtual ~_OutputArray();#endif};
類體中還是有不少內容的,其實注意到里面是定義的各種模板,重載的各種構造函數就可以了。
?
好了,穿越完OutputArrayOfArrays的介紹,我們繼續講解split。
?
split函數分割多通道數組轉換成獨立的單通道數組,按公式來看就是這樣:
? ? ? ? ? ? ? ? ? ? ? ? ? ? ?
?
?
?
最后看一個示例吧:
?
Mat srcImage;Mat imageROI;vector<Mat> channels;srcImage= cv::imread("dota.jpg");split(srcImage,channels);imageROI=channels.at(0);addWeighted(imageROI(Rect(385,250,logoImage.cols,logoImage.rows)),1.0,logoImage,0.5,0.,imageROI(Rect(385,250,logoImage.cols,logoImage.rows))); merge(channels,srcImage4); namedWindow("sample");imshow("sample",srcImage);
將一個多通道數組分離成幾個單通道數組的split()函數的內容大概就是這些了,下面我們來看一下和他親如手足或者說是他的死對頭——merge()函數。
<2>merge函數詳解
merge()函數的功能是split()函數的逆向操作,將多個數組組合合并成一個多通道的數組。
它通過組合一些給定的單通道數組,將這些孤立的單通道數組合并成一個多通道的數組,從而創建出一個由多個單通道陣列組成的多通道陣列。它有兩個基于C++的函數原型:
C++: void merge(const Mat* mv, size_tcount, OutputArray dst)C++: void merge(InputArrayOfArrays mv,OutputArray dst)- 第一個參數,mv,填需要被合并的輸入矩陣或vector容器的陣列,這個mv參數中所有的矩陣必須有著一樣的尺寸和深度。
- 第二個參數,count,當mv為一個空白的C數組時,代表輸入矩陣的個數,這個參數顯然必須大于1.
- 第三個參數,dst,即輸出矩陣,和mv[0]擁有一樣的尺寸和深度,并且通道的數量是矩陣陣列中的通道的總數。
?
函數解析:
merge函數的功能是將一些數組合并成一個多通道的數組。關于組合的細節,輸出矩陣中的每個元素都將是輸出數組的串接,其中,第i個輸入數組的元素被視為mv[i]。 c一般用其中的Mat::at()方法對某個通道進行存取,也就是這樣用channels.at(0)。
PS: Mat::at()方法,返回一個引用到指定的數組元素。注意是引用,相當于兩者等價,修改其中一個另一個跟著變。
?
來一個示例吧:
?
vector<Mat> channels;Mat imageBlueChannel;Mat imageGreenChannel;Mat imageRedChannel;srcImage4= imread("dota.jpg");split(srcImage4,channels);imageBlueChannel = channels.at(0);imageGreenChannel = channels.at(1);imageRedChannel = channels.at(2);
上面的代碼先做了相關的類型聲明,然后把載入的3通道圖像轉換成3個單通道圖像,放到vector<Mat>類型的channels中,接著進行引用賦值。
根據OpenCV的BGR色彩空間(bule,Green,Red,藍綠紅),其中channels.at(0)就表示引用取出channels中的藍色分量,channels.at(1)就表示引用取出channels中的綠色色分量,channels.at(2)就表示引用取出channels中的紅色分量。
?
一對做相反操作的plit()函數和merge()函數和用法就是這些了。另外提一點,如果我們需要從多通道數組中提取出特定的單通道數組,或者說實現一些復雜的通道組合,可以使用mixChannels()函數。
?
?
二、多通道圖像混合示例程序
?
依然是每篇文章都會配給大家的一個詳細注釋的示例程序,把這篇文章中介紹的知識點以代碼為載體,展現給大家。
?
本篇文章中,我們把多通道圖像混合的實現代碼封裝在了名為MultiChannelBlending()的函數中。直接上代碼吧:
?
?
#include <cv.h>#include <highgui.h>#include <iostream> using namespace cv;using namespace std; bool MultiChannelBlending(); int main( ){system("color5E"); if(MultiChannelBlending()){ cout<<endl<<"嗯。好了,得出了你需要的混合值圖像~";} waitKey(0); return 0;} bool MultiChannelBlending(){ Mat srcImage;Mat logoImage; vector<Mat>channels;Mat imageBlueChannel; logoImage=imread("dota_logo.jpg",0);srcImage=imread("dota_jugg.jpg"); if(!logoImage.data ) { printf("Oh,no,讀取logoImage錯誤~!\n"); return false; } if(!srcImage.data ) { printf("Oh,no,讀取srcImage錯誤~!\n"); return false; } split(srcImage,channels); imageBlueChannel=channels.at(0); addWeighted(imageBlueChannel(Rect(500,250,logoImage.cols,logoImage.rows)),1.0,logoImage,0.5,0,imageBlueChannel(Rect(500,250,logoImage.cols,logoImage.rows))); merge(channels,srcImage); namedWindow("<1>游戲原畫+logo藍色通道 by淺墨");imshow("<1>游戲原畫+logo藍色通道 by淺墨",srcImage); Mat imageGreenChannel; logoImage=imread("dota_logo.jpg",0);srcImage=imread("dota_jugg.jpg"); if(!logoImage.data ) { printf("Oh,no,讀取logoImage錯誤~!\n"); return false; } if(!srcImage.data ) { printf("Oh,no,讀取srcImage錯誤~!\n"); return false; } split(srcImage,channels); imageGreenChannel=channels.at(1); addWeighted(imageGreenChannel(Rect(500,250,logoImage.cols,logoImage.rows)),1.0,logoImage,0.5,0.,imageGreenChannel(Rect(500,250,logoImage.cols,logoImage.rows))); merge(channels,srcImage); namedWindow("<2>游戲原畫+logo綠色通道 by淺墨");imshow("<2>游戲原畫+logo綠色通道 by淺墨",srcImage); Mat imageRedChannel; logoImage=imread("dota_logo.jpg",0);srcImage=imread("dota_jugg.jpg"); if(!logoImage.data ) { printf("Oh,no,讀取logoImage錯誤~!\n"); return false; } if(!srcImage.data ) { printf("Oh,no,讀取srcImage錯誤~!\n"); return false; } split(srcImage,channels); imageRedChannel=channels.at(2); addWeighted(imageRedChannel(Rect(500,250,logoImage.cols,logoImage.rows)),1.0,logoImage,0.5,0.,imageRedChannel(Rect(500,250,logoImage.cols,logoImage.rows))); merge(channels,srcImage); namedWindow("<3>游戲原畫+logo紅色通道 by淺墨");imshow("<3>游戲原畫+logo紅色通道 by淺墨",srcImage); return true;}
可以發現,其實多通道混合的實現函數中的代碼大體分成三部分,分別對藍綠紅三個通道進行處理,唯一不同的地方是在取通道分量時取的是channels.at(0),channels.at(1)還是channels.at(2)。
嗯,下面看一下運行截圖:
?嗯,本篇文章到這里就基本結束了,最后放出本篇文章配套示例程序的下載地址。
本篇文章的配套源代碼請點擊這里下載:
【淺墨OpenCV入門教程之五】配套源代碼下載
OK,本節的內容大概就是這些,我們下篇文章見:)
?
?
總結
以上是生活随笔為你收集整理的转载:【OpenCV入门教程之五】 分离颜色通道多通道图像混合的全部內容,希望文章能夠幫你解決所遇到的問題。
如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。