主成分分析法详解(PCA)
引用:https://blog.csdn.net/program_developer/article/details/80632779
將n維特征映射到k維上,只保留包含絕大部分方差的維度特征,而忽略包含方差幾乎為0的特征維度,實現對數據特征的降維處理。
PCA算法有兩種實現方法:基于特征值分解協方差矩陣實現PCA算法、基于SVD分解協方差矩陣實現PCA算法。
針對第一種方案基于特征值分解協方差,步驟為:
1:對原始矩陣X進行去平均值。
2:求原始矩陣的協方差。
3:根據協方差矩陣計算特征值和對應的特征向量和標準化特征向量。
4:根據特征值,將對應的標準化特征向量進行排序,每個特征向量寫作行向量P
5:最終降維結果:Y=Pk*X
如計算:
1首先去平均值,每一位特征減去各自的平均值。平均值為0,減0仍為原值。
2之后計算協方差,。。得協方差矩陣。
3然后根據0,求得(5/6-λ)^2=16/25。求得λ:。根據,得當λ=2,X1=X2。令X1=1,則X2=1,特征向量P1=[1;1],同理,P2=[1;-1].然后求出P1和P2的標準特征向量。組成P。
4根據特征值,進行排序并寫作行向量:,降到1維,則取第一行
5最終降維
針對第二種方案基于SVD分解協方差:
1:對原始矩陣X進行去平均值。
2:根據SVD計算特征值和對應的特征向量和標準化特征向量。
3:根據特征值,將對應的標準化特征向量進行排序,每個特征向量寫作行向量P
4:最終降維結果:Y=Pk*X
選擇左奇異矩陣,進行使用,然后求得協方差矩陣的特征值與特征向量。
引用:https://link.zhihu.com/?target=https%3A//mp.weixin.qq.com/s/Dv51K8JETakIKe5dPBAPVg
SVD分解的算法過程為:
針對任意矩陣A,分解為:。U為A的行為參照的方陣,為左奇異矩陣。Σ和A的行列相同,除了對角線其它元素都為0。V為A的列為參照的方陣,為右奇異矩陣。
分解的步驟為:
1求出:,設為M,作為U的計算準備。,設為N作為V的計算準備。
2針對M矩陣求出特征值,特征向量。針對N矩陣求出特征值,特征向量。并將所求特征向量標準化為ui和vi。
3利用根據ui和vi求出σ的所有值。
4將所有值進行歸并,求出表達式。并利用U獲得原始A的特征值,特征向量。
例如:計算。
使用MATLAB的算法:
clear all,clc; A=[[-1,1];[-2,-1];[-3,-2];[1,1];[2,1];[3,2]]; A_mean=A-mean(A);#去平均值 A_div=A_mean; M=A_div'*A_div; N=A_div*A_div'; [M_vector,M_val]=eig(M); [N_vector,N_val]=eig(N); M_vector=fliplr(M_vector); N_vector=fliplr(N_vector); %M_vector=flipud(M_vector) %N_vector=flipud(N_vector) M_val=diag(M_val); N_val=diag(N_val); M_val=flipud(M_val) N_val=flipud(N_val) theta1=sqrt(M_val(1)); theta2=sqrt(M_val(2)); cgma=zeros(size(A)); cgma(1,1)=theta1; cgma(2,2)=theta2; %-(N_vector*cgma*M_vector') -N_vector*cgma
取第一列即獲得了降維哦!
總結
以上是生活随笔為你收集整理的主成分分析法详解(PCA)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 张飞在长坂喊声吓死了一位曹军将领,他叫什
- 下一篇: rgb颜色判断语句_如何判断一张照片的曝