如何理解矩阵特征值?
——————————————————以下為正文——————————————————
從線性空間的角度看,在一個定義了內積的線性空間里,對一個N階對稱方陣進行特征分解,就是產生了該空間的N個標準正交基,然后把矩陣投影到這N個基上。N個特征向量就是N個標準正交基,而特征值的模則代表矩陣在每個基上的投影長度。
特征值越大,說明矩陣在對應的特征向量上的方差越大,功率越大,信息量越多。
應用到最優化中,意思就是對于R的二次型,自變量在這個方向上變化的時候,對函數值的影響最大,也就是該方向上的方向導數最大。
應用到數據挖掘中,意思就是最大特征值對應的特征向量方向上包含最多的信息量,如果某幾個特征值很小,說明這幾個方向信息量很小,可以用來降維,也就是刪除小特征值對應方向的數據,只保留大特征值方向對應的數據,這樣做以后數據量減小,但有用信息量變化不大。
——————————————————舉兩個栗子——————————————————
應用1 二次型最優化問題
二次型,其中R是已知的二階矩陣,R=[1,0.5;0.5,1],x是二維列向量,x=[x1;x2],求y的最小值。
求解很簡單,講一下這個問題與特征值的關系。
對R特征分解,特征向量是[-0.7071;0.7071]和[0.7071;0.7071],對應的特征值分別是0.5和1.5。
然后把y的等高線圖畫一下
從圖中看,函數值變化最快的方向,也就是曲面最陡峭的方向,歸一化以后是[0.7071;0.7071],嗯哼,這恰好是矩陣R的一個特征值,而且它對應的特征向量是最大的。因為這個問題是二階的,只有兩個特征向量,所以另一個特征向量方向就是曲面最平滑的方向。這一點在分析最優化算法收斂性能的時候需要用到。
二階問題比較直觀,當R階數升高時,也是一樣的道理。
應用2 數據降維
興趣不大的可以跳過問題,直接看后面降維方法。
機器學習中的分類問題,給出178個葡萄酒樣本,每個樣本含有13個參數,比如酒精度、酸度、鎂含量等,這些樣本屬于3個不同種類的葡萄酒。任務是提取3種葡萄酒的特征,以便下一次給出一個新的葡萄酒樣本的時候,能根據已有數據判斷出新樣本是哪一種葡萄酒。
問題詳細描述:UCI Machine Learning Repository: Wine Data Set
訓練樣本數據:http://archive.ics.uci.edu/ml/machine-learning-databases/wine/wine.data
原數據有13維,但這之中含有冗余,減少數據量最直接的方法就是降維。
做法:把數據集賦給一個178行13列的矩陣R,它的協方差矩陣,C是13行13列的矩陣,對C進行特征分解,對角化,其中U是特征向量組成的矩陣,D是特征之組成的對角矩陣,并按由大到小排列。然后,另,就實現了數據集在特征向量這組正交基上的投影。嗯,重點來了,R’中的數據列是按照對應特征值的大小排列的,后面的列對應小特征值,去掉以后對整個數據集的影響比較小。比如,現在我們直接去掉后面的7列,只保留前6列,就完成了降維。這個降維方法叫PCA(Principal Component Analysis)。
下面看結果:
這是不降維時候的分類錯誤率。
這是降維以后的分類錯誤率。
結論:降維以后分類錯誤率與不降維的方法相差無幾,但需要處理的數據量減小了一半(不降維需要處理13維,降維后只需要處理6維)。 編輯于 2013-10-31?90 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???禁止轉載 81贊同 反對,不會顯示你的姓名 未知?,EE狗一條…… 知乎用戶、Jerry Zhang、張序?等人贊同
特征值不僅僅是數學上的一個定義或是工具,特征值是有具體含義的,是完全看得見摸得著的。
1. 比如說一個三維矩陣,理解成線性變換,作用在一個球體上:
三個特征值決定了 對球體在三個維度上的拉伸/壓縮,把球體塑造成一個橄欖球;
剩下的部分決定了這個橄欖球在三維空間里面怎么旋轉。
2. 對于一個微分方程:
將系數提取出來
對角化:
其中
由于
定義
于是有
因此y的變化率與特征值息息相關:
再將y由Q變換回x,我們就能得出x在不同時間的值。x的增長速度就是特征值λ,Q用來把x旋轉成y。
發布于 2013-10-25?12 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權利 48贊同 反對,不會顯示你的姓名 Duanex?,電氣工程,科幻迷 張序、徐小飛、polehui?等人贊同 前面的回答比較專業化,而且好像沒說特征值是虛數的情況,并不是只有特征向量的伸縮。作為工科線代水平,我說下自己的理解。矩陣特征值是對特征向量進行伸縮和旋轉程度的度量,實數是只進行伸縮,虛數是只進行旋轉,復數就是有伸縮有旋轉。其實最重要的是特征向量,從它的定義可以看出來,特征向量是在矩陣變換下只進行“規則”變換的向量,這個“規則”就是特征值。推薦教材linear algebra and its application 編輯于 2014-05-23?16 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權利 21贊同 反對,不會顯示你的姓名 燕南?,物理學博士、愛好應用數學、讀過一些純數… 呵呵清清清、知乎用戶、AttufliX?等人贊同 特徵向量反映了線性變換的方向,在這幾個方向上線性變換只導致伸縮,沒有旋轉;特徵值反映線性變換在這幾個方向上導致的伸縮的大小。 編輯于 2014-05-04?1 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權利 49贊同 反對,不會顯示你的姓名 阿貍 crystal·jiang、Tavion Fu、張序?等人贊同
-----------------------------------------
詳細信息參看《神奇的矩陣》
----這是打廣告的分割線---------
想要理解特征值,首先要理解矩陣相似。什么是矩陣相似呢?從定義角度就是:存在可逆矩陣P滿足B=則我們說A和B是相似的。讓我們來回顧一下之前得出的重要結論:對于同一個線性空間,可以用兩組不同的基和基來描述,他們之間的過渡關系是這樣的:,而對應坐標之間的過渡關系是這樣的:。其中P是可逆矩陣,可逆的意義是我們能變換過去也要能變換回來,這一點很重要。我們知道,對于一個線性變換,只要你選定一組基,那么就可以用一個矩陣T1來描述這個線性變換。換一組基,就得到另一個不同的矩陣T2(之所以會不同,是因為選定了不同的基,也就是選定了不同的坐標系)。所有這些矩陣都是這同一個線性變換的描述,但又都不是線性變換本身。具體來說,有一個線性變換,我們選擇基來描述,對應矩陣是T1;同樣的道理,我們選擇基來描述,,對應矩陣是T2;我們知道基和基是有聯系的,那么他們之間的變換T1和T2有沒有聯系呢?
當然有,T1和T2就是相似的關系,具體的請看下圖:
沒錯,所謂相似矩陣,就是同一個線性變換的不同基的描述矩陣。這就是相似變換的幾何意義。
這個發現太重要了。原來一族相似矩陣都是同一個線性變換的描述啊!難怪這么重要!工科研究生課程中有矩陣論、矩陣分析等課程,其中講了各種各樣的相似變換,比如什么相似標準型,對角化之類的內容,都要求變換以后得到的那個矩陣與先前的那個矩陣式相似的,為什么這么要求?因為只有這樣要求,才能保證變換前后的兩個矩陣是描述同一個線性變換的。就像信號處理(積分變換)中將信號(函數)進行拉氏變換,在復數域處理完了之后又進行拉式反變換,回到實數域一樣。信號處理中是主要是為了將復雜的卷積運算變成乘法運算。其實這樣的變換還有好多,有興趣可以看積分變換的教材。
為什么這樣做呢?矩陣的相似變換可以把一個比較丑的矩陣變成一個比較美的矩陣,而保證這兩個矩陣都是描述了同一個線性變換。至于什么樣的矩陣是“美”的,什么樣的是“丑”的,我們說對角陣是美的。在線性代數中,我們會看到,如果把復雜的矩陣變換成對角矩陣,作用完了之后再變換回來,這種轉換很有用處,比如求解矩陣的n次冪!而學了矩陣論之后你會發現,矩陣的n次冪是工程中非常常見的運算。這里順便說一句,將矩陣對角化在控制工程和機械振動領域具有將復雜方程解耦的妙用!總而言之,相似變換是為了簡化計算!
從另一個角度理解矩陣就是:矩陣主對角線上的元素表示自身和自身的關系,其他位置的元素aij表示i位置和j位置元素之間的相互關系。那么好,特征值問題其實就是選取了一組很好的基,就把矩陣 i位置和j位置元素之間的相互關系消除了。而且因為是相似變換,并沒有改變矩陣本身的特性。因此矩陣對角化才如此的重要!
特征向量的引入是為了選取一組很好的基。空間中因為有了矩陣,才有了坐標的優劣。對角化的過程,實質上就是找特征向量的過程。如果一個矩陣在復數域不能對角化,我們還有辦法把它化成比較優美的形式——Jordan標準型。高等代數理論已經證明:一個方陣在復數域一定可以化成Jordan標準型。這一點有興趣的同學可以看一下高等代數后或者矩陣論。
特征值英文名eigen value?!疤卣鳌币辉~譯自德語的eigen,由希爾伯特在1904年首先在這個意義下使用(赫爾曼·馮·亥姆霍茲在更早的時候也在類似意義下使用過這一概念)。eigen一詞可翻譯為“自身的”,“特定于...的”,“有特征的”或者“個體的”—這強調了特征值對于定義特定的變換上是很重要的。它還有好多名字,比如譜,本征值。為什么會有這么多名字呢?
原因就在于他們應用的領域不同,中國人為了區分,給特不同的名字。你看英文文獻就會發現,他們的名字都是同一個。當然,特征值的思想不僅僅局限于線性代數,它還延伸到其他領域。在數學物理方程的研究領域,我們就把特征值稱為本征值。如在求解薛定諤波動方程時,在波函數滿足單值、有限、連續性和歸一化條件下,勢場中運動粒子的總能量(正)所必須取的特定值,這些值就是正的本征值。
前面我們討論特征值問題面對的都是有限維度的特征向量,下面我們來看看特征值對應的特征向量都是無限維函數的例子。這時候的特征向量我們稱為特征函數,或者本證函數。這還要從你熟悉的微分方程說起。方程本質是一種約束,微分方程就是在世界上各種各樣的函數中,約束出一類函數。對于一階微分方程
我們發現如果我將變量y用括號[]包圍起來,微分運算的結構和線性代數中特征值特征向量的結構,即和竟是如此相似。這就是一個求解特征向量的問題啊!只不過“特征向量”變成函數!我們知道只有滿足這個式子。這里出現了神奇的數e,一杯開水放在室內,它溫度的下降是指數形式的;聽說過放射性元素的原子核發生衰變么?隨著放射的不斷進行,放射強度將按指數曲線下降;化學反應的進程也可以用指數函數描述……類似的現象還有好多。
為什么選擇指數函數而不選擇其他函數,因為指數函數是特征函數。為什么指數函數是特征?我們從線性代數的特征向量的角度來解釋。這已經很明顯了就是“特征向量”。于是,很自然的將線性代數的理論應用到線性微分方程中。那么指數函數就是微分方程(實際物理系統)的特征向量。用特征向量作為基表示的矩陣最為簡潔。就像你把一個方陣經過相似對角化變換,耦合的矩陣就變成不耦合的對角陣一樣。在機械振動里面所說的模態空間也是同樣的道理。如果你恰巧學過振動分析一類的課程,也可以來和我交流。
同理,用特征函數解的方程也是最簡潔的,不信你用級數的方法解方程,你會發現方程的解有無窮多項。解一些其他方程的時候(比如貝塞爾方程)我們目前沒有找到特征函數,于是退而求其次才選擇級數求解,至少級數具有完備性。實數的特征值代表能量的耗散或者擴散,比如空間中熱量的傳導、化學反應的擴散、放射性元素的衰變等。虛數的特征值(對應三角函數)代表能量的無損耗交換,比如空間中的電磁波傳遞、振動信號的動能勢能等。復數的特征值代表既有交換又有耗散的過程,實際過程一般都是這樣的。復特征值在電路領域以及振動領域將發揮重要的作用,可以說,沒有復數,就沒有現代的電氣化時代!
對于二階微分方程方程,它的解都是指數形式或者復指數形式??梢酝ㄟ^歐拉公式將其寫成三角函數的形式。復特征值體現最多的地方是在二階系統,別小看這個方程,整本自動控制原理都在講它,整個振動分析課程也在講它、還有好多課程的基礎都是以這個微分方程為基礎,這里我就不詳細說了,有興趣可以學習先關課程。說了這么多只是想向你傳達一個思想,就是復指數函數式系統的特征向量!
如果將二階微分方程轉化成狀態空間的形式(具體轉化方法見現代控制理論,很簡單的)
。則一個二階線性微分方程就變成一個微分方程組的形式這時就出現了矩陣A,矩陣可以用來描述一個系統:如果是振動問題,矩陣A的特征值是虛數,對應系統的固有頻率,也就是我們常說的,特征值代表振動的譜。如果含有耗散過程,特征值是負實數,對應指數衰減;特征值是正實數,對應指數發散過程,這時是不穩定的,說明系統極容易崩潰,如何抑制這種發散就是控制科學研究的內容。
提到振動的譜,突然想到了這個經典的例子:美國數學家斯特讓(G..Strang)在其經典教材《線性代數及其應用》中這樣介紹了特征值作為頻率的物理意義,他說:"大概最簡單的例子(我從不相信其真實性,雖然據說1831年有一橋梁毀于此因)是一對士兵通過橋梁的例子。傳統上,他們要停止齊步前進而要散步通過。這個理由是因為他們可能以等于橋的特征值之一的頻率齊步行進,從而將發生共振。就像孩子的秋千那樣,你一旦注意到一個秋千的頻率,和此頻率相配,你就使頻率蕩得更高。一個工程師總是試圖使他的橋梁或他的火箭的自然頻率遠離風的頻率或液體燃料的頻率;而在另一種極端情況,一個證券經紀人則盡畢生精力于努力到達市場的自然頻率線。特征值是幾乎任何一個動力系統的最重要的特征。"
對于一個線性系統,總可以把高階的方程轉化成一個方程組描述,這被稱為狀態空間描述。因此,他們之間是等價的。特征值還有好多用處,原因不在特征值本身,而在于特征值問題和你的物理現象有著某種一致的對應關系。學習特征值問題告訴你一種解決問題的方法:尋找事物的特征,然后特征分解。
編輯于 2016-02-08?13 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權利 173贊同 反對,不會顯示你的姓名 鄭梓豪?,CS224d 學習中... 張序、啦啦、知乎用戶?等人贊同???收錄于?編輯推薦 各位知友在點贊同之前請看一下評論區。這個例子有待討論。-----------
我舉一個直觀一點的例子吧...我也喜歡數學的直觀之美。
我們知道,一張圖像的像素(如:320 x 320)到了計算機里面事實上就是320x320的矩陣,每一個元素都代表這個像素點的顏色..
如果我們把基于特征值的應用,如PCA、向量奇異值分解SVD這種東西放到圖像處理上,大概就可以提供一個看得到的、直觀的感受。關于SVD的文章可以參考LeftNotEasy的文章:機器學習中的數學(5)-強大的矩陣奇異值分解(SVD)及其應用
簡單的說,SVD的效果就是..用一個規模更小的矩陣去近似原矩陣...
這里A就是代表圖像的原矩陣..其中的尤其值得關注,它是由A的特征值從大到小放到對角線上的..也就是說,我們可以選擇其中的某些具有“代表性”的特征值去近似原矩陣!
左邊的是原始圖片
當我把特征值的數量減少幾個的時候...后面的圖像變“模糊”了..
同樣地...
關鍵的地方來了!如果我們只看到這里的模糊..而沒有看到計算機(或者說數學)對于人臉的描述,那就太可惜了...我們看到,不論如何模糊,臉部的關鍵部位(我們人類認為的關鍵部位)——五官并沒有變化太多...這能否說:數學揭示了世界的奧秘? 編輯于 2014-05-05?30 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權利 31贊同 反對,不會顯示你的姓名 黃培浩?,程序員 董笙、啊啊鳥人啊啊、蔣淡寧?等人贊同 作為一個線性代數考60+的學渣,我是這么直觀地理解的:
?把式子中的看作一個線性變換,那么這個定義式就表示對于 向量而言,經過變換之后該向量的方向沒有變化(可能會反向),而只是長度變化了(乘以?)。
也就是對于變換來說,存在一些“不變”的量(比如特征向量的方向),我想,“特征”的含義就是“不變”。
而特征值,如你所見,就是變換??在特征方向上的伸展系數吧(亂諏了個名詞 :P)。
嗯,覺得維基其實講的就挺好的:https://zh.wikipedia.org/wiki/%E7%89%B9%E5%BE%81%E5%90%91%E9%87%8F 編輯于 2014-03-30?3 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權利 22贊同 反對,不會顯示你的姓名 江磊?,大眾點評碼農 陳茜、Xenophon Tony、劉嘉禾?等人贊同 站在線性變換的角度來看矩陣的話。
矩陣(線性變換)作用在一個向量上無非是將該向量伸縮(包括反向伸縮)與旋轉。
忽略復雜的旋轉變換,只考慮各個方向(特征方向)伸縮的比例,所提取出的最有用,最關鍵的信息就是特征值了。 編輯于 2013-10-24?8 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權利 32贊同 反對,不會顯示你的姓名 Gilbert?,you know nothing deyi wang、張榮真、yaoxinliu?等人贊同 定義很抽象我也一直搞不懂,但是最近開始在圖像處理方面具體應用的時候就清晰很多了,用學渣的語言溝通一下吧我們。
拋開學術研究不談,其實根本不會,特征值eigenvalue和特征向量eigenvector的一大應用是用于大量數據的降維
比如拿淘寶舉個例子,每個淘寶店鋪有N個統計數據:商品類型,日銷量周銷量月銷量、好評率中評差評率……全淘寶有M家店鋪,那么服務器需要記錄的數據就是M*N的矩陣;
這是一個很大的數據,實際上我們可以通過求這個矩陣的特征向量和對應的特征值來重新表示這個M*N的矩陣:
我們可以用周銷量來誤差不大的表示日銷量和月銷量(除以七和乘以四),這個時候周銷量就可以當作一個特征向量,它能夠表示每個店鋪銷量這個空間方向的主要能量(也就是數據),這樣我們就簡略的把一個35維的向量簡化成四維的(30個日銷量加4個周銷量加1個月銷量);
同理我們也可以把好評率中評率差評率用一個好評率來表示(剩余的百分比默認為差評率),這樣的降維大致上也能反映一個店鋪的誠信度;
這樣通過不斷的降維我們可以提取到某系列數據最主要的幾個特征向量(對應特征值最大的),這些向量反映了這個矩陣空間最主要的能量分布,所以我們可以用這幾個特征向量來表示整個空間,實現空間的降維。
這個方法叫做Principle Components Analysis,有興趣的同學可以wiki一下。
學渣飄過了 編輯于 2015-10-23?12 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權利 1贊同 反對,不會顯示你的姓名 董豪晨?,做更好的算法 黃蒼杰?贊同 看了大部分的回答,基本都沒有回答出為什么要求特征值。
特征值和特征向量是為了研究矩陣仿射變換的不變性而提出的,一個空間里的元素通過線性變換到另一個相同維數的空間,那么會有某些向量的方向在變換前后不會改變,方向不變但是這些向量的范數可能會改變,我這里說的都是實數空間的向量。
定義,定義為原始空間中的向量,為變換后空間的向量,簡單起見令為階方陣且特征值互不相同,對應的特征向量線性無關。那么原始空間中的任何一個向量都可以由A的特征向量表示,既那么在變換到另一個空間時,這就求完了!
好,下面再說更深層次的含義。
在不同的領域特征值的大小與特征向量的方向所表示的含義也不同,但是從數學定義上來看,每一個原始空間中的向量都要變換到新空間中,所以他們之間的差異也會隨之變化,但是為了保持相對位置,每個方向變換的幅度要隨著向量的分散程度進行調整。
你們體會一下拖拽圖片使之放大縮小的感覺。
如果A為樣本的協方差矩陣,特征值的大小就反映了變換后在特征向量方向上變換的幅度,幅度越大,說明這個方向上的元素差異也越大,換句話說這個方向上的元素更分散。 編輯于 2016-04-16?添加評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權利 4贊同 反對,不會顯示你的姓名 單英晉?,數學門外漢 大衛、王一凡、看開拉?等人贊同 什么是方陣?方陣就是n維線性空間上的線性變換。那么我們總要考慮最簡單的情況:什么是一維的線性變換呢?就是簡單的常數倍拉伸
A: x -> ax
在高維的時候,線性變換A的結構可能很復雜,但它總會保持某些一維子空間不變。在這些子空間上它的限制就是一個一維線性變換,這個變換的拉伸常數就是A在這個子空間上的特征值。 發布于 2013-10-24?添加評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權利 1贊同 反對,不會顯示你的姓名 九銘書記?,知道一點微末的數學知識,一直想還原有趣… 李勇?贊同 特征值后面對于解矩陣微分方程也有很大作用。矩陣的特征值是一種線性變換,可以理解為在坐標軸上(可以為多維度坐標軸)的一種拉伸變換 發布于 2014-05-05?添加評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權利 2贊同 反對,不會顯示你的姓名 KevinSun?,機器學習博士在讀,只關注神經網絡方法! 看開拉、teresa zhang?贊同 特征值首先是描述特征的。比如你的圖片是有特征的,并且圖片是存在某個坐標系的。特征向量就代表這個坐標系,特征值就代表這個特征在這個坐標方向上的恭喜。總之,就是代表在對應左邊軸上的特征大小的貢獻 發布于 2014-05-05?3 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權利 32贊同 反對,不會顯示你的姓名 閆星光?,這個定理的證明將留給讀者作為練習 張序、啦啦、黃開宇?等人贊同 /* 多圖預警 */
用特征向量作為基,線性變換會很簡單,僅僅是伸縮變換,而特征值就是伸縮的大小。
各位已經說的很清楚了,我就發幾張用mathematica做的圖吧。
這里只給出一些“可視化”的2D線性變換。
在平面當中的一個向量經過一個線性變換(乘上一個矩陣)之后變成了另一個的向量,把它的起點接在,就可以表示線性變換的特性。再畫出一組特征向量,我們就有下圖:
顏色越深冷,代表向量長度越小。
可以看出特征向量所在的直線上的向量經過變換之后方向不變,這意味著一個向量的分量是各自獨立的,這對于我們分析矩陣、線性變換就方便了很多。
(綠色箭頭是矩陣的行向量,紅色是特征向量)
只有一個特征值-1的情況:
特征值是虛數的反對稱矩陣:
其實做的是動圖,可惜知乎不支持動圖。 編輯于 2015-04-21?3 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權利 3贊同 反對,不會顯示你的姓名 知乎用戶?,隨風奔跑自由是方向 啦啦、兔小灰、知乎用戶?贊同 僅考慮非奇異矩陣。
以3階非奇異矩陣為例,設它的3個特征值(多重特征值就重復寫)分別為?,,, 對應的特征向量分別為,和,則線性無關。
此時任一向量可表示為的線性組合,設,則有
正好是在的各特征向量上分量乘以特征值之和。 編輯于 2015-10-13?1 條評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權利 1贊同 反對,不會顯示你的姓名 張涵?,NLP/ML/ECG 一碗醬油?贊同 從PAGERANK算法角度出發,多次進行迭代R=MR得出收斂的向量即為特征向量。參考特征向量的定義:aR=MR,把a(一個數)除到右邊去及有R=M1 R,M1=M/a.以上就是pagerank算法的簡易數學支撐。 發布于 2015-01-09?添加評論?感謝? 分享 ?收藏???沒有幫助???舉報???作者保留權利 17贊同 反對,不會顯示你的姓名 四爺?,Indeco 單梁、張榮真、骷髏頭?等人贊同 就去讓你給我接個人,她有很多特征,我會挑幾個特典型如長發超級大美女、身材高挑皮膚好。。。其中特征值就是多高,多美,特征向量就是這些分類。。因為不需要給你所有信息,只要幾個典型也不會讓你找錯人,所以能給你降維。
如果你要找女友,只要幾個典型如美,高之類的,估計你很快就能在100人中就能找到你心儀的,所以能尋優
from:?http://www.zhihu.com/question/21874816
總結
以上是生活随笔為你收集整理的如何理解矩阵特征值?的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 虽然不能取代排版之王,但 Word 也能
- 下一篇: sift的java实现解述