PCA方法对特征降维
生活随笔
收集整理的這篇文章主要介紹了
PCA方法对特征降维
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
用CNN抽了feature后,維度太高了,降維如下:
%使用PCA對數(shù)據(jù)降維 load fc7.txt; [pc, score, latent,tsquare]=princomp(fc7); k=cumsum(latent)./sum(latent);%計算貢獻(xiàn)率,確定最終的降維數(shù)目k,即前k個特征值所占的比重 eigen_matrix=pc(:,1:2048); reduce_matrix=fc7*eigen_matrix; dlmwrite('reduce_feature.txt',reduce_matrix);【思考】:原樣本空間為9200*4096的矩陣,經(jīng)過降維后成為了9200*2048,特征矩陣為4096*2048。但是,原特征向量有大量的0存在,但是經(jīng)過降維后,每一個點的值都變?yōu)榱朔橇阒?#xff0c;這個會不會有什么影響?
總結(jié)
以上是生活随笔為你收集整理的PCA方法对特征降维的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Pytorch中GPU使用
- 下一篇: unittest测试框架_python接