grads 相关系数_基于小波变换的多聚焦图像融合算法
引用本文
孟強強, 楊桄, 童濤, 張儉峰. 基于小波變換的多聚焦圖像融合算法[J]. 國土資源遙感, 2014,26(2): 38-42
MENG Qiangqiang, YANG Guang, TONG Tao, ZHANG Jianfeng. Fusion algorithm of multifocus images based on wavelet transform[J]. REMOTE SENSING FOR LAND & RESOURCES,2014,26(2): 38-42
Permissions
Copyright?2014, 《國土資源遙感》編輯部
《國土資源遙感》編輯部
基于小波變換的多聚焦圖像融合算法
孟強強, 楊桄, 童濤, 張儉峰
空軍航空大學航空航天情報系,長春 130022
楊 桄(1975- ),男,博士后,副教授,主要從事遙感影像解譯等方面的研究。Email:yg2599@sina.com。
第一作者簡介: 孟強強(1989- ),男,碩士研究生,主要研究方向是多源圖像融合。Email:865422907@qq.com。
收稿日期: 2013-03-10
摘要
針對多聚焦圖像因聚焦點不同而產生的圖像模糊問題,提出了一種基于小波變換的新融合方法。該方法首先對圖像進行小波分解,然后對圖像的高頻和低頻系數分別采用區域梯度和能量加權平均法進行融合,再使用小波逆變換得到融合后圖像。對實驗結果進行主、客觀評價的結果表明,該方法得到的融合圖像具有較好的主觀視覺效果和客觀量化指標,效果優于傳統融合方法。
關鍵詞:
多聚焦圖像; 小波變換; 區域梯度
中圖分類號:TP79
文獻標志碼:A
文章編號:1001-070X(2014)02-0038-05
doi: 10.6046/gtzyyg.2014.02.07
Fusion algorithm of multifocus images based on wavelet transform
MENG Qiangqiang, YANG Guang, TONG Tao, ZHANG Jianfeng
Department of Aerospace Intelligence, Aviation University of Air Force, Changchun 130022, China
Abstract
A new approach to the fusion of multifocus images based on wavelet transform is proposed to solve the problem that some parts of the images are blurred because of the different focus points. The images are firstly decomposed by using wavelet transform, and then the low and high frequency coefficients are fused by using different fusion strategies: the low frequency coefficient is fused with a rule weighted average of energy, while the high frequency coefficient is processed with the regional grads. After that the fused image is obtained by inverse wavelet transform. Experiments prove that the fused image obtained by the method has a better subjective visual effect and objective evaluation criteria, thus attaining a better result than other traditional fusion methods.
Keyword:
multifocus images; wavelet transform; regional grads
0 引言
不同傳感器所獲得的圖像是不同的, 即使是同一傳感器, 在不同時間或者不同角度所獲取的圖像也不盡相同[。隨著現代傳感器及其相關技術的發展, 獲取遙感數據的能力不斷加強, 但是對信息的處理和利用程度還比較落后。圖像融合技術是圖像處理領域的一個研究熱點[。通過融合獲得的圖像可以比原始圖像具有更豐富的信息, 圖像的不確定性也有所減少。多聚焦圖像的融合, 就是對聚焦點不同的多幅圖像中的清晰部分進行處理, 綜合形成一幅新圖像。新圖像中的目標和背景更加清晰[。目前, 常用的融合方法主要是金字塔形分解和小波分解法, 前者分解結構中不同分辨率的細節信息彼此相關, 算法的穩定性較差; 后者得到的各子帶數據細節信息相關性減小, 算法的穩定性較好, 且克服了前者的缺點[, 因此在圖像融合領域獲得了更廣泛的應用。
目前常用的圖像融合方法可以分為像素級融合、特征級融合以及決策級融合3種。像素級融合是另外2種融合的基礎, 也是目前融合研究的重點。經過小波變換得到的低頻系數具有圖像中的大部分能量, 而高頻系數則主要是細節信息和邊緣信息。針對不同的融合內容, 應該有針對性地選擇融合規則。為了檢驗融合圖像的效果, 可以采用主觀評價法, 也可以采用客觀評價法(數學方法)進行分析比較, 其評價指標主要有均方根誤差、相關系數、標準差、熵、互信息及峰值信噪比等[。
目前, 多聚焦圖像的融合處理方法主要是對高頻信息進行處理, 獲得原始圖像的細節信息和邊緣信息。對于低頻信息, 則選取灰度平均等較為簡單的方法進行處理, 忽略了低頻信息在圖像中的重要作用, 導致融合后圖像的信息損失。本文針對高頻信息和低頻信息包含內容不同的情況, 對高頻信息采用梯度指標, 對低頻信息采用能量指標進行處理, 以減少低頻信息的損失, 并對融合后的圖像采用主、客觀評價相結合的方法進行分析, 證明該方法優于傳統融合算法。
1 基于小波變換的多傳感器圖像融合方法
1.1 小波變換方法
小波變換方法是基于時間尺度的信號分析方法, 具有多分辨率分析的特點和表現局部特征的能力。該技術可以將源圖像分解成不同尺度、不同方向的細節和一個最底層逼近。其中不同尺度、不同方向的細節包含了不同尺度、不同方向的高頻或者邊緣信息, 而因為最底層逼近攜帶著圖像的平均信息, 所以整個圖像能量的絕大部分都包含在其中。小波變換起源于傅立葉變換, 在傅立葉變換的基礎上引入時頻局部化概念, 根據信號高頻與低頻的不同, 自適應地改變時頻窗口, 將信號分解成為具有不同分辨率、方向特性與頻率特性的子帶信號, 從而找到源圖像信息的頻率域與變頻小波系數的對應關系。隨著分解層次的變化, 小波變換系數的幅值體現出源圖像的灰度局部變化特性, 為不同傳感器獲取的圖像進行融合提供了有利條件[。 傳統的傅立葉變換公式是
F(ω)=∫-∞+∞f(t)e-jω td x , (1)
其逆變換公式是
f(t)= 12π∫-∞+∞F(ω)e-jω td ω 。 (2)
傅立葉變換無法顯示某個時段時域信號局部頻域特性, 而小波變換可以彌補這個缺點。在連續小波變換中, 設f(t)和ψ(t)為平方可積的, ψ(ω)是ψ(t)的傅立葉變換, 且滿足條件
∫-∞+∞ψ(ω)ωd ω < ∞ , (3)
則可以認為
Wf(a, b)= 1a∫-∞+∞f(t)ψ( t-ba)d t (4)
是f(t)的連續小波變換(a>0)。其中, ψ(t)為小波函數或者是小波母函數; a是尺度因子; b是平移因子。
設圖像函數為f(x, y), 記C0, H, G為一維小波濾波器的矩陣, 則二維小波分解算法可以表示為[
Cj+1=HCjH'Dj+1h=GCjH'Dj+1v=HCjG'Dj+1d=GCjG', (5)
式中: Dh, Dv, Dd分別表示水平分量、垂直分量和對角分量矩陣; H'和G'分別是H與G的共軛轉置矩陣(j=0, 1, …, J-1); 則相應的小波重構算法可以表示為
Cj-1=H'CjH+G' DjvH+H' DjvG+G' DjdG (6)
1.2 圖像融合方法
基于小波變換的圖像融合方法如圖1所示:
圖1
Fig.1圖1 基于小波變換的圖像融合框架Fig.1 Framework of image fusion based on wavelet transform
其過程為:
1)對源圖像A和源圖像B進行小波變換分解;
2)將分解得到的高頻系數和低頻系數分別采用不同的融合規則進行處理, 得到新的高頻系數和低頻系數;
3)對圖像進行重構, 得到一幅新的圖像, 即融合圖像。
1.2.1 低頻系數融合規則
低頻系數是圖像中變化緩慢的部分, 包含了圖像中的大部分能量, 對低頻系數采用能量指標, 可以保留更多的有效信息。所以, 對圖像的低頻系數使用鄰域能量為指標進行處理, 可以更好地保留圖像低頻信息, 各元素的區域能量計算公式為
E(x,y)=∑x'∈L,y'∈K|D(x+x', y+y')|2 , (7)
式中: L, K表示局部區域的大小(本文選取3像元× 3像元); x'和y'的變換范圍在局部區域內; D是源圖像在不同尺度與方向下的低頻系數矩陣[。由于低頻系數是圖像中變換緩慢的部分, 所以對低頻系數使用能量加權平均的方法, 可以更好地保留低頻信息。設2幅源圖像的低頻系數值分別為CA(i, j)和CB(i, j), 能量值分別為EA(x, y)和EB(x, y), 融合圖像的低頻系數則表示為CF(i, j), 則數學模型為
CF(i, j)=EA(x, y)/[EA(x, y)+EB(x, y)]CA(i, j)+EB(x, y)/[EA(x, y)+EB(x, y)]CB(i, j) 。 (8)
1.2.2 高頻系數融合規則
一般來說, 高頻系數的絕對值越大, 圖像的邊緣和區域邊界等特征就越清晰, 所以絕對值取大成為較為普遍的融合規則[。但是, 這種方法會將噪聲誤認為有效信息, 而且忽略了周圍像素的作用, 只考慮一個像素點, 會降低圖像的融合質量。高頻信息中主要是邊緣信息和區域邊界等重要信息, 是像素的亮度突變部分, 同時也應該考慮圖像鄰域對圖像及融合結果的影響, 鄰域梯度可以很好地描述灰度突變信息, 用梯度對圖像高頻部分進行處理, 可以很好地保留圖像的邊緣信息和灰度突變的信息及鄰域像素的影響[。 圖像高頻部分的融合規則為選取每個像素周圍3像元× 3像元區域, 對這個區域進行梯度運算, 選取一個閾值T(T為經驗值), 假設2幅圖像每點的梯度值分別為GA(i, j)和GB(i, j), 當這2個梯度值之差大于T, 則認為梯度值大的圖像含有更高的亮度突變信息, 就選取梯度較大圖像的灰度值; 當二者之差小于閾值T, 則認為2幅圖像所含細節信息相差不多, 對2幅圖像采取梯度加權平均方法, 假設2幅圖像的高頻系數值分別為PA(i, j)和PB(i, j), 則融合圖像PF(i, j)表示為
PF(i, j)= max[PA(i,j),PB(i,j)],abs[GA(i,j)-GB(i,j)]≥TGA(i,j)[GA(i,j)+GB(i,j)]PA(i,j)+GB(i,j)[GA(i,j)+GB(i,j)]PB(i,j), (9)
2 仿真實驗及結果評價
為了驗證上述方法的效果, 本文采用Matlab7.0進行仿真實驗, 數據如圖2所示。圖2(a), (b)分別
為聚焦左邊Pesil罐上的圖像及聚焦右邊測試卡的圖像, 其灰度均為256級, 圖像大小為512像元× 512像元, 主要包含了低亮度邊緣; 圖2(c)(d)分別為聚焦左邊小鬧鐘的圖像及聚焦右邊大鬧鐘的圖像, 圖像灰度也是256級, 大小為256像元× 256像元。
圖2
Fig.2
在實驗中, 基于方向區域的NSCT融合算法采用3層分解, 方向分解數則分別為2, 4, 8; 選取的鄰域窗口大小為3像元× 3像元。小波變換采用sym4小波基, 對圖像也是進行3層分解, 對應層分解分別為水平、垂直和對角方向, 并采用信息熵、交叉熵及互信息3個指標對圖像的融合效果進行客觀評價。
仿真實驗實現了文獻[(記為方法一)、文獻[(記為方法二)、文獻[(記為方法三)及文獻[(記為方法四)等4篇文獻的試驗方法, 將這4種方法和本文提出的融合方法(記為方法五)進行對比, 圖3分別給出了多聚焦圖像各融合方法的融合結果。
圖3
Fig.3圖3 第一組實驗數據的融合結果Fig.3 Fusion results of multifocus images for the first experimental data
圖4
Fig.4圖4 第二組實驗數據的融合結果Fig.4 Fusion results of multifocus images for the second experimential data
表1
Tab.1
表1(Tab.1)
表1 第一組多聚焦圖像不同融合算法性能比較Tab.1 Performance comparison of different algorithm for the first multifocus images評價指標融合方法
方法一方法二方法三方法四方法五信息熵7.118 67.116 47.103 07.201 27.096 3
互信息4.666 34.700 64.702 74.715 84.868 4
清晰度5.425 15.480 65.402 85.432 75.481 1表1 第一組多聚焦圖像不同融合算法性能比較Tab.1 Performance comparison of different algorithm for the first multifocus images
表2
Tab.2
表2(Tab.2)
表2 第二組多聚焦圖像不同融合算法性能比較Tab.2 Performance comparison of different algorithm for the second multifocus images評價指標融合方法
方法一方法二方法三方法四方法五信息熵7.404 97.416 27.317 07.428 67.426 3
互信息4.612 04.718 25.370 54.717 44.746 3
清晰度7.482 27.496 25.004 77.019 77.455 0表2 第二組多聚焦圖像不同融合算法性能比較Tab.2 Performance comparison of different algorithm for the second multifocus images
對比分析2組融合圖像的效果可以看出, 應用本文方法(方法五)的融合效果更為理想: 從圖3來看, 前景和后景中的物體及其上的字母和符號更加清晰; 從圖4可以看到, 2個鬧鐘的指針和表盤上的數字, 比其他方法更清晰。
如表1, 2所示, 文中選取的客觀評價指標有3個, 分別是信息熵、互信息和清晰度。信息熵可以表示圖像的平均信息量, 信息熵越大, 圖像所含的信息就越豐富; 互信息是衡量從源圖像中獲取信息量多少的標準, 互信息越大, 融合圖像從源圖像中獲取的信息就越多; 清晰度是表示圖像清晰程度的指標, 圖像清晰度越大, 圖像越清晰[。需要說明的是, 均方根誤差和相關系數等評價指標需要預先獲取融合后的標準圖像才可以進行圖像評價, 而且部分多聚焦圖像無法事先得到標準圖像, 所以本文沒有采用均方根誤差、相關系數及交叉熵等評價指標。從實驗結果來看, 雖然本文方法獲得的圖像不是每項評價指標都高于其他方法的, 但從整體分析, 本文所用方法可以很好地繼承源圖像的信息, 并減少噪聲對融合結果的影響, 并在獲取2幅源圖像信息的同時, 提高了圖像的清晰程度, 使融合圖像中的目標和背景更加清晰。
3 結論
本文針對多聚焦圖像的融合問題提出了一種新的融合方法。實驗結果表明, 本文方法具有較好的適用性, 能使融合圖像在繼承原始圖像信息的同時提高影像的清晰程度, 優于傳統的多聚焦圖像融合算法。
The authors have declared that no competing interests exist.
參考文獻
[1]
楊龍. 紅外熱像和可見光圖像融合[D]. 合肥: 安徽大學, 2012: 1-4.Yang L.Fusion of infrared and visible images[D].Hefei: Anhui University, 2012: 1-4.
[本文引用:1]
[2]
董張玉, 趙萍, 劉殿偉, 等. 一種改進的小波變換融合方法及其效果評價[J]. 國土資源遙感, 2012, 24(3): 44-49.Dong Z Y, Zhao P, Liu D W, et al.An improved wavelet transform ation image fusion method and evaluation of its fusion result[J]. 2012, 24(3): 44-49.
[本文引用:1]
[3]
焦竹青, 邵金濤, 徐保國. 非下采樣Contourlet變換域多聚焦圖像融合方法[J]. 浙江大學學報: 工學版, 2010, 44(7): 1333-1334.Jiao Z Q, Shao J T, Xu B G.Novel multi-focus image fusion method in nonsubsampled contourlet transform domain[J]. 2010, 44(7): 1333-1334.
[本文引用:1]
[CJCR: 0.551]
[4]
程塨, 郭雷, 趙天云, 等. 一種基于小波變換的多聚焦圖像融合方法[J]. 計算機工程與應用, 2012, 48(1): 194-196.Cheng G, Guo L, Zhao T Y, et al.A multi-focus images fusion method based on wavelet transform algorithm[J]. 2012, 48(1): 194-196.
[本文引用:1]
[CJCR: 0.457]
[5]
曾義. 基于小波變換和視覺特性的圖像融合方法研究[D]. 成都: 電子科技大學, 2011, 29(3): 454-458.Zeng Y.An images fusion method based on wavelet transform and features of human vision system[D].Chengdu: University of Electronic Science and Technology of China, 2011, 29(3): 454-458.
[本文引用:1]
[6]
王亞濤. 基于多分辨率小波的多聚焦圖像融合研究[D]. 洛陽: 河南科技大學, 2010: 8-10.Wang Y T.Image fusion based on multi-resolution wavelet transform[D].Luoyang: University of Science and Technology of Henan, 2010: 8-10.
[本文引用:1]
[7]
李春梅, 王汝霖, 李淑霞, 等. 基于鄰域平均梯度的小波圖像融合[J]. 微計算機信息, 2006, 22(12): 306-307.Li C M, Wang R L, Li S X, et al.Wavelet image fused based on neighborhood average grads[J]. Microcomputer Information, 2006, 22(36): 306-307.
[本文引用:2]
[8]
曾基兵, 陳懷新, 王衛星. 基于改進局部梯度的小波圖像融合方法[J]. 電子技術, 2007, 31(8): 18-20.Zeng J B, Chen H X, Wang W X.New image fusion method based on improved local gradient processing of wavelet coefficient[J]. Video Engcneering, 2007, 31(8): 18-20.
[本文引用:1]
[9]
楊莎莎, 田小平, 吳成茂. 基于小波變換的多聚焦圖像自適應融合[J]. 西安郵電學院學報, 2012, 17(3): 24-29.Yang S S, Tian X P, Wu C M.Multi-focus image fusion scheme based on wavelet transform[J]. Journal of Xi'an University of Posts and Telecommunications, 2012, 17(3): 24-29.
[本文引用:1]
[10]
Cao Z.Algorithm image fusion novel based-on improved regional feature with wavelet transform[J]. 2011, 47(26): 213-215.
[本文引用:1]
[CJCR: 0.457]
[11]
王躍華, 陶忠祥. 一種基于NSCT變換的紅外與可見光圖像融合算法[J]. 光學與光電技術, 2012, 10(4): 81-84.Wang Y H, Tao Z X.A kind of fusion algorithm for infrared and visible light images based on NSCT[J]. Optics & Optoelectronic Technology, 2012, 10(4): 81-84.
[本文引用:1]
[12]
郭雷, 程塨, 趙天云. 基于小波變換和鄰域特征的多聚焦圖像融合算法[J]. 西北工業大學學報, 2011, 29(3): 454-459.Guo L, Cheng G, Zhao T Y.A new and effective multi-focus image fusion algorithm based on wavelet transforms and neighborhood features[J]. Journal of Northwestern Polytechnical University, 2011, 29(3): 454-459.
[本文引用:1]
[CJCR: 0.3229]
[13]
彭海. 紅外與可見光圖像融合方法研究[D]. 杭州: 浙江大學, 2012: 42-50.Peng H.Research on infrared and visual fusion method[D].Hangzhou: Zhejiang University, 2012: 42-50.
[本文引用:1]
[14]
葉傳奇, 王寶樹, 苗啟廣. 基于NSCT變換的紅外與可見光圖像融合算法[J]. 系統工程與電子技術, 2008, 30(4): 593-596.Ye C Q, Wang B S, Miao Q G.Fusion algorithm of infrared and visible light images based on nonsubsampled contourlet transform[J]. Systems Engineering and Electronics, 2008, 30(4): 593-596.
[本文引用:1]
[CJCR: 0.499]
[15]
黃君. 圖像質量評價的研究[D]. 杭州: 浙江理工大學, 2012: 14-21.Huang J.The research on image quality assessment[D]. Hangzhou:Zhejiang Sci-Tech University, 2012: 14-21.
[本文引用:1]
1
2012
0.0
0.0
... 0 引言不同傳感器所獲得的圖像是不同的,即使是同一傳感器,在不同時間或者不同角度所獲取的圖像也不盡相同[1] ...
1
2012
0.0
0.0
董張玉, 趙萍, 劉殿偉, 等. 一種改進的小波變換融合方法及其效果評價[J]. 國土資源遙感, 2012, 24(3): 44-49.Dong Z Y, Zhao P, Liu D W, et al.An improved wavelet transform ation image fusion method and evaluation of its fusion result[J]. 2012, 24(3): 44-49.
On the basis of a summary and analysis of wavelet transformation remote sensing image fusion method, in combination with the advantages of local variance and partial differential weighted criterion, and in the light of the deficiencies of wavelet transform method in enhancing space texture information, this paper has proposed an improved wavelet transformation remote sensing image fusion algorithm. With IKONOS multi-spectral and panchromatic as fusion experiments data, the new algorithm fusion effect was comprehensively evaluated from the subjective, the objective and the object-oriented classification accuracy. The results show that the improved algorithm combined with advantages of the wavelet transform and local algorithm is quite satisfactory. It greatly remedies the defects of traditional wavelet fusion method in remote sensing image texture information loss and serves as a kind of efficient remote sensing image fusion method. With the utilization of the new image fusion method, the remote sensing image variance is raised from the original 98.28 to 164.32, the information entropy increases from 5.30 to 7.85, the average gradient rises from 1.972 to 8.807, and the image classification accuracy increases by 10.24%.
1. Northeast Institute of Geography and Agricultural Ecology, Changchun 130012, China; 2. Graduate University of Chinese Academy of Science, Beijing 100049, China; 3. College of Territorial Resources and Tourism, Anhui Normal University, Wuhu 241003, China; 4. College of Resources and Environmental Engineering, Hefei University of Technology, Hefei 230009, China; 5. College of Information Engineering, China University of Geosciences, Wuhan 430074, China
針對傳統小波變換融合方法易導致空間紋理信息丟失的缺陷,結合局部方差和局部差異加權算法的優點,提出了一種基于局部算法改進的小波變換融合方法。采用該方法對IKONOS多光譜與全色波段圖像進行融合實驗,分別從基于視覺效果、數理統計以及面向對象分類精度3個方面分析評價該方法的融合效果。結果表明: 改進的融合方法綜合了小波變換和局部算法的優點,顯著地改善了圖像的融合效果,是一種高效的圖像融合方法。應用該方法融合后圖像的方差由原來的98.28提高到164.32,信息熵由5.30增加到7.85,平均梯度從1.972提高到8.807,圖像分類精度提高了10.24%。
... 圖像融合技術是圖像處理領域的一個研究熱點[2] ...
1
2010
0.0
0.551
焦竹青, 邵金濤, 徐保國. 非下采樣Contourlet變換域多聚焦圖像融合方法[J]. 浙江大學學報: 工學版, 2010, 44(7): 1333-1334.Jiao Z Q, Shao J T, Xu B G.Novel multi-focus image fusion method in nonsubsampled contourlet transform domain[J]. 2010, 44(7): 1333-1334.
A fusion method using pulsecoupled neural network (PCNN) in nonsubsampled Contourlet transform (NSCT) domain was proposed in order to solve the problem of multifocus image fusion in the same scene. Both the lowpass subband coefficient and the bandpass directional subband coefficient of source image by NSCT were inputted into PCNN. The ignition mapping image was obtained via the ignition frequency generated by the neuron iteration. Then the approach degree function was adopted to describe the association degree of the neighborhood characteristic in ignition mapping image, and the appropriate subband coefficient was selected according to the neighbor approach degree. The fused results were obtained through the inverse NSCT. Experimental results demonstrate that the method greatly retains the clear region and the feature information of multifocus image. The method has better fusion performance than the classical wavelet transform, the Contourlet transform and the conventional NSCT.
School of IoT Engineering, Jiangnan University, Wuxi 214122, China
針對同一場景的多聚焦圖像融合問題,提出基于脈沖耦合神經網絡(PCNN)的非下采樣Contourlet變換(NSCT)域融合方法.將源圖像經過NSCT變換生成的低通子帶系數和帶通方向子帶系數輸入PCNN,將各神經元迭代產生的點火頻數構成點火映射圖.采用接近度函數描述點火映射圖鄰域特性的關聯程度,根據鄰域接近度為融合圖像選擇相應的子帶系數,通過NSCT逆變換得到融合結果.實驗分析表明,新的融合方法在很大程度上保留了多聚焦圖像的清晰區域和特征信息,具有比經典小波變換、Contourlet變換和常規NSCT方法更好的融合性能.
... 新圖像中的目標和背景更加清晰[3] ...
1
2012
0.0
0.457
程塨, 郭雷, 趙天云, 等. 一種基于小波變換的多聚焦圖像融合方法[J]. 計算機工程與應用, 2012, 48(1): 194-196.Cheng G, Guo L, Zhao T Y, et al.A multi-focus images fusion method based on wavelet transform algorithm[J]. 2012, 48(1): 194-196.
An improved multi-focus image fusion method based on wavelet transform is proposed. Multi-scale decomposition is performed on source images using wavelet transform to get high-frequency and low-frequency images. A method based on neighboring region variance weighted-average is applied to high-frequency image to get the high-frequency fusion coefficient;and a method based on local region gradient information is applied to low-frequency image to get the low-frequency fusion coefficient. The inverse wavelet transform is utilized to obtain fused image. The fused image by the proposed method is evaluated with some parameters such as root mean square error, entropy and peak signal noise rate, in comparison with traditional fusion methods. The experiment results show that the proposed method is effective on improving the effect and quality of fused image.
College of Automation, Northwestern Polytechnical University, Xi’an 710072, China
提出了一種改進的基于小波變換的多聚焦圖像融合方法。該方法采用小波變換對源圖像進行多尺度分解,得到高頻和低頻圖像;對高頻分量采用基于鄰域方差加權平均的方法得到高頻融合系數,對低頻分量采用基于局部區域梯度信息的方法得到低頻融合系數;進行小波反變換得到融合圖像。采用均方根誤差、信息熵以及峰值信噪比等評價標準,將該方法與傳統融合方法的融合效果進行了比較。實驗結果表明,該方法所得融合圖像的效果和質量均有明顯提高。
... 后者得到的各子帶數據細節信息相關性減小,算法的穩定性較好,且克服了前者的缺點[4],因此在圖像融合領域獲得了更廣泛的應用 ...
1
2011
0.0
0.0
... 為了檢驗融合圖像的效果,可以采用主觀評價法,也可以采用客觀評價法(數學方法)進行分析比較,其評價指標主要有均方根誤差、相關系數、標準差、熵、互信息及峰值信噪比等[5] ...
1
2010
0.0
0.0
... 隨著分解層次的變化,小波變換系數的幅值體現出源圖像的灰度局部變化特性,為不同傳感器獲取的圖像進行融合提供了有利條件[6] ...
2
2006
0.0
0.0
... 設圖像函數為f(x,y),記C0,H,G為一維小波濾波器的矩陣,則二維小波分解算法可以表示為[7] ...
... 一般來說,高頻系數的絕對值越大,圖像的邊緣和區域邊界等特征就越清晰,所以絕對值取大成為較為普遍的融合規則[7] ...
1
2007
0.0
0.0
... D是源圖像在不同尺度與方向下的低頻系數矩陣[8] ...
1
2012
0.0
0.0
... 高頻信息中主要是邊緣信息和區域邊界等重要信息,是像素的亮度突變部分,同時也應該考慮圖像鄰域對圖像及融合結果的影響,鄰域梯度可以很好地描述灰度突變信息,用梯度對圖像高頻部分進行處理,可以很好地保留圖像的邊緣信息和灰度突變的信息及鄰域像素的影響[9] ...
1
2011
0.0
0.457
Cao Z.Algorithm image fusion novel based-on improved regional feature with wavelet transform[J]. 2011, 47(26): 213-215.
A novel algorithm of image fusion based on the regional features of wavelet coefficients is proposed.After the original images being decomposed by wavelet transform,low-frequency and high-frequency coefficients in different scales and various direction are obtained.Then,the low-frequency coefficients of fusion images are determined by using the correlation coefficient and the regional variance,while the high-frequency coefficients are determined by using local regional energy.Finally,the fused image is reconstructed by inverse wavelet transform.Many groups of images are taken as experimental data,and fusion results are evaluated by average gradient,information entropy and spatial frequency.Experimental results show that the proposed algorithm is more outstanding than the conventional methods and has better fusion effects.
Jiangnan University,Wuxi,Jiangsu 214122,China
提出了一種基于區域特性的小波圖像融合新算法。對原始圖像進行小波多尺度分解,得到在不同尺度和方向下的低頻系數和高頻系數;對低頻系數,采用圖像區域之間的相關系數和區域方差的融合規則確定低頻融合系數,而對不同尺度和方向下的高頻系數,采用基于局部區域能量的融合規則確定高頻融合系數;最后,通過小波逆變換得到融合圖像。對多組圖像進行了融合仿真實驗,并用平均梯度、信息熵和空間頻率對融合結果進行了客觀評價。實驗結果表明,該算法優于傳統的融合算法,取得了更好的融合效果。
1
2012
0.0
0.0
... 仿真實驗實現了文獻[11](記為方法一)、文獻[12](記為方法二)、文獻[13](記為方法三)及文獻[14](記為方法四)等4篇文獻的試驗方法,將這4種方法和本文提出的融合方法(記為方法五)進行對比,圖3分別給出了多聚焦圖像各融合方法的融合結果 ...
1
2011
0.0
0.3229
... 仿真實驗實現了文獻[11](記為方法一)、文獻[12](記為方法二)、文獻[13](記為方法三)及文獻[14](記為方法四)等4篇文獻的試驗方法,將這4種方法和本文提出的融合方法(記為方法五)進行對比,圖3分別給出了多聚焦圖像各融合方法的融合結果 ...
1
2012
0.0
0.0
... 仿真實驗實現了文獻[11](記為方法一)、文獻[12](記為方法二)、文獻[13](記為方法三)及文獻[14](記為方法四)等4篇文獻的試驗方法,將這4種方法和本文提出的融合方法(記為方法五)進行對比,圖3分別給出了多聚焦圖像各融合方法的融合結果 ...
1
2008
0.0
0.499
... 仿真實驗實現了文獻[11](記為方法一)、文獻[12](記為方法二)、文獻[13](記為方法三)及文獻[14](記為方法四)等4篇文獻的試驗方法,將這4種方法和本文提出的融合方法(記為方法五)進行對比,圖3分別給出了多聚焦圖像各融合方法的融合結果 ...
1
2012
0.0
0.0
... 清晰度是表示圖像清晰程度的指標,圖像清晰度越大,圖像越清晰[15] ...
總結
以上是生活随笔為你收集整理的grads 相关系数_基于小波变换的多聚焦图像融合算法的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: asin c语言中 返回值范围_asin
- 下一篇: php.ini 米拓_图片无法上传问题“