SVD与PCA的区别
生活随笔
收集整理的這篇文章主要介紹了
SVD与PCA的区别
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
SVD與PCA區別
矩陣對向量的乘法,對應于該向量得旋轉、伸縮。若對某向量只發生了伸縮而無旋轉變化,則該向量是該矩陣的特征向量,伸縮比為特征值。
- PCA用來用來提取一個場的主要信息(即對數據集的列數——特征進行主成分分析),而SVD一般用來分析兩個場的相關關系。
- ?? ?PCA通過分解一個場的協方差矩陣(對特征),SVD是通過矩陣奇異值分解的方法分解兩個場的協方差矩陣(特征、樣本量)。
- ?? ?PCA可用于特征的壓縮、降維(去噪),SVD能夠對一般矩陣分解,可用于個性化推薦。同時也可以用于NLP中的算法,比如潛在語義索引(LSI)等。
其實PCA幾乎可以說是對SVD的一個包裝,如果我們實現了SVD,那也就實現了PCA了。而且更好的地方是,有了SVD,我們就可以得到兩個方向的PCA,如果我們對矩陣進行特征值的分解,只能得到一個方向的PCA。
總結
以上是生活随笔為你收集整理的SVD与PCA的区别的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 矩阵总结
- 下一篇: PCA(2):PCA算法实现的两种方式