深度解析K-L变换 及其 在特征识别中的应用
生活随笔
收集整理的這篇文章主要介紹了
深度解析K-L变换 及其 在特征识别中的应用
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
1.K-L變換定義、意義
?K-L變換也常稱為主成分變換(PCA),是一種基于圖像統計特性的變換,它的協方差矩陣除對角線以外的元素都是零(所以大家也叫它最佳變換),消除了數據之間的相關性,從而在信息壓縮方面起著重要作用。在模式識別和圖像處理中一個主要的問題就是降維,在實際的模式識別問題中,我們選擇的特征經常彼此相關,在識別這些特征時,數量很多,大部分都是無用的。如果我們能減少特征的數量,即減少特征空間的維數,那么我們將以更少的存儲和計算復雜度獲得更好的準確性。 如何尋找一種合理的綜合性方法,使得:
1.減少特征量的個數。
2.盡量不損失或者稍損失原特征中所包含的信息。
3.使得原本相關的特征轉化為彼此不相關(用相關系數陣衡量)。
K-L變換即主成分分析就可以簡化大維數的數據集合。它還可以用于許多圖像的處理應用中,例如:壓縮、分類、特征選擇等。
2.K-L變換的原理
K-L變換的目的是尋找任意統計分布的數據集合主要分量的子集。基向量滿足相互正交性。使得原始數據集合變換到主分量空間,使單一數據樣本的互相關性(cross-correlation)降低到最低點。例: 對某n個波段的多光譜圖像(這不就是多維信息嘛)實行一個線性變換,即對該多光譜圖像組成的光譜空間X乘以一個線性變換矩陣A,產生一個新的光譜空間Y,即產生一幅新的n個波段的多光譜圖像。其表達式為
? ? ? ? ? ? ? ? ? ? ? ? ? ? Y = AX
式中:X為變換前多光譜空間的像元矢量;Y為變換后多光譜空間的像元矢量;A為一個n×n的線性變換矩陣。
對于K-L變換中的矩陣A,必須滿足以下要求:
1. A為n×n正交矩陣,A=[φ1,φ2,φ3,…,φn]
2. 對正交矩陣A來說,取φi為X的協方差矩陣∑x的特征向量,協方差矩陣除對角線以外的元素都是零
變換Y=A’X與反變換X=AY即為K-L變換的變換公式。
因此當n=3時:
從上式可以看出,A的作用實際上對各分量加一個權重系數,實現線性變換。Y的各分量的信息的線性組合,它綜合了原有各分量的信息而不是簡單的取舍,這使得新的n維隨機向量Y能夠較好的反映事物的本質特征。
變換后的矢量Y的協方差矩陣 ∑y是對角矩陣,且作為Y的各分量 ?yi ? ?的方差的對角元素就是 ?∑x的特征值,即
這里λ按由小到大的順序排列。K-L變換后新的坐標軸 ?的 y1,y2,y3…yn為個特征矢量的方向,由上式表明這實際上是選擇分布的主要分量作為新的坐標軸,對角化表明了新的分量彼此之間是互不相關的,即變換后的圖像Y的各分量之間的信息是相互獨立的。
3.一維K-L變換
一種可以去掉隨機向量中各元素間相關性的線性變換變換的方法如下: 1.定義協方差矩陣
2.求協方差矩陣的特征值和特征向量
3.定義變換核矩陣和K-L變換
4.二維K-L變換及應用于人臉識別
1.臉的檢測2.特征臉
3.分類 將待識別人臉投影到新的M維人臉空間,即用一系列特征臉的線性加權和表示。此時待識別人臉問題轉換為投影系數向量,識別問題轉換為分類問題。最簡單的分類是最小距離分類等。
??
5.總結
5.1 K-L變換的優點
k-l變換的優點主要集中在三個方面: 1.可以完全去除原始信號中的相關性 2.在進行數據壓縮時,將y截短所得的均方誤差最小,該最小均方誤差等于所有舍去的特征值之和 3.K-L變換最大程度上保留了原始信號的能量 也正是基于此,大家才把K-L變換稱為最佳變換5.2 K-L變換的缺點
可惜的是,K-L變換還沒有快速算法,這是因為變換后的基向量是依賴協方差矩陣得到的,而協方差矩陣又是利用輸入信號得到的。 換句話來說,K-L變換的基向量依賴輸入信號!而傅里葉變換的基向量不必依賴輸入信號,這也就能解釋為什么K-L變換沒有快速算法。 也正因為這個原因,后面才發展出了近似的最優算法——余弦變換、正弦變換等圖像壓縮/數據壓縮算法與50位技術專家面對面20年技術見證,附贈技術全景圖
總結
以上是生活随笔為你收集整理的深度解析K-L变换 及其 在特征识别中的应用的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 一个程序员的一些想法(二)
- 下一篇: Win7和Vista移动设备正常弹出