应用矩阵分析1 子空间分析1 线性子空间基础
應(yīng)用矩陣分析1 子空間分析1 線性子空間基礎(chǔ)
- 基本理論
- 正交分解
- 子空間的正交投影
- 應(yīng)用舉例
- 離散信號(hào)的Casorati矩陣
- 正交多分辨率分析
- Orthogonal Procrustes Problem
這個(gè)系列介紹矩陣分析的應(yīng)用,相關(guān)線性代數(shù)基礎(chǔ)會(huì)作簡(jiǎn)單介紹,但主要篇幅還是按專題的形式介紹矩陣分析相關(guān)結(jié)果在實(shí)際問(wèn)題中的應(yīng)用。
在優(yōu)化、近似、回歸等問(wèn)題中,很多時(shí)候我們就是在試圖找最優(yōu)的子平面來(lái)近似raw data space。比如dimensional reduction,就是找一個(gè)最優(yōu)子空間,使得用高維數(shù)據(jù)在最優(yōu)子空間上的投影作為對(duì)高維數(shù)據(jù)的近似只有很少或幾乎沒(méi)有information loss。因此子空間的分析的應(yīng)用方法是解決這類問(wèn)題的基礎(chǔ)。這一講我們先回顧一下與子空間相關(guān)的線性代數(shù)結(jié)論。
基本理論
考慮數(shù)域FFF上的線性空間VVV。
定義一 向量組{v1,?,vm}\{v_1,\cdots,v_m\}{v1?,?,vm?}張成的子空間 (subspace) 記為
W=span{v1,?,vm}={w=∑i=1mαivi:?αi∈R}W = span\{v_1,\cdots,v_m\}=\{w=\sum_{i=1}^m \alpha_iv_i:\forall \alpha_i \in \mathbb{R}\}W=span{v1?,?,vm?}={w=i=1∑m?αi?vi?:?αi?∈R}
稱v1,?,vmv_1,\cdots,v_mv1?,?,vm?為generator,稱S={v1,?,vm}S=\{v_1,\cdots,v_m\}S={v1?,?,vm?}為spanning set。
定理一 (Spinning set theorem): WWW與SSS的最大線性無(wú)關(guān)組張成的子空間相同。
定義二 稱SSS的最大線性無(wú)關(guān)組為WWW的一組基,最大線性無(wú)關(guān)組包含的向量數(shù)目為WWW的維數(shù),用dim(W)dim(W)dim(W)表示,SSS與WWW的基都不是唯一的。
正交分解
定義三 假設(shè)W1,W2W_1,W_2W1?,W2?是VVV的線性子空間,稱W1⊕W2W_1 \oplus W_2W1?⊕W2?為W1,W2W_1,W_2W1?,W2?的直和
W1⊕W2={w1+w2:w1∈W1,w2∈W2}W_1 \oplus W_2 = \{w_1+w_2:w_1 \in W_1,w_2 \in W_2\}W1?⊕W2?={w1?+w2?:w1?∈W1?,w2?∈W2?}
定理二 (線性空間的直和分解)存在一列VVV的無(wú)交線性子空間W1,?,WpW_1,\cdots,W_pW1?,?,Wp?,使得
V=W1⊕?⊕WpV = W_1 \oplus \cdots \oplus W_pV=W1?⊕?⊕Wp?
此時(shí)VVV中的向量xxx存在唯一分解,
x=w1+w2+?+wpx = w_1 + w_2 + \cdots + w_px=w1?+w2?+?+wp?
定義四 稱子空間W1W_1W1?與W2W_2W2?正交,如果?w1∈W1,w2∈W2\forall w_1 \in W_1,w_2 \in W_2?w1?∈W1?,w2?∈W2?,w1⊥w2w_1 \perp w_2w1?⊥w2?。記為W1⊥W2W_1 \perp W_2W1?⊥W2?。
定理三(線性空間的正交分解) WWW是VVV的一個(gè)子空間,?!W⊥\exists ! W^{\perp}?!W⊥滿足W⊥W⊥W \perp W^{\perp}W⊥W⊥,W⊥W^{\perp}W⊥是VVV的子空間并且
V=W⊕W⊥V = W \oplus W^{\perp}V=W⊕W⊥
稱這是VVV的正交分解,稱W⊥W^{\perp}W⊥為WWW的正交補(bǔ)。需要注意的是正交比無(wú)交更強(qiáng),正交的子空間一定無(wú)交,但無(wú)交子空間不一定正交,因此正交分解是一種特殊的直和分解。
定義五 S?VS \subset VS?V為矩陣AAA的不變子空間,如果?x∈S\forall x \in S?x∈S, Ax∈SAx \in SAx∈S。如果AAA是方陣,λ\lambdaλ是AAA的一個(gè)特征值,顯然N(A?λI)N(A-\lambda I)N(A?λI)是AAA的不變子空間,我們稱這個(gè)不變子空間為矩陣AAA的特征值λ\lambdaλ對(duì)應(yīng)的特征子空間。其中N(A?λI)N(A-\lambda I)N(A?λI)叫做A?λIA-\lambda IA?λI的核空間,
N(A?λI)={x∈V:(A?λI)x=0}N(A-\lambda I) = \{x \in V:(A-\lambda I)x=0\}N(A?λI)={x∈V:(A?λI)x=0}
定理四(線性空間的特征分解)AAA是VVV上的一個(gè)線性變換的矩陣表示,則VVV可以分解為AAA的特征子空間的直和,對(duì)于給定的線性變換,這種分解是唯一的。
子空間的正交投影
定義六 稱P:V→S,S?VP:V \to S, S \subset VP:V→S,S?V為(從VVV到SSS的)正交投影算子,如果
定理五 (正交投影算子的性質(zhì))
在比較構(gòu)造正交投影的數(shù)值算法時(shí),一個(gè)非常常用的工具是比較投影向量與子空間的夾角,我們可以定義向量與子空間的夾角為
θ(x,S)=min?y∈Sarccos?∣(x,y)∣∥x∥2∥y∥2,?x∈V,S?V\theta(x,S)=\min_{y \in S}\arccos \frac{|(x,y)|}{\left\|x \right\|_2 \left\| y\right\|_2},\forall x \in V,S \subset Vθ(x,S)=y∈Smin?arccos∥x∥2?∥y∥2?∣(x,y)∣?,?x∈V,S?V
應(yīng)用舉例
離散信號(hào)的Casorati矩陣
定義七 假設(shè)u1(k),?,um(k)u_1(k),\cdots,u_m(k)u1?(k),?,um?(k)是一組離散信號(hào),定義矩陣
C=[u1(k)u2(k)u3(k)?um?1(k)um(k)u1(k+1)u2(k+1)u3(k+1)?um?1(k+1)um(k+1)u1(k+2)u2(k+2)u3(k+2)?um?1(k+2)um(k+2)??????u1(k+m?2)u2(k+m?2)u3(k+m?2)?um?1(k+m?2)um(k+m?2)u1(k+m?1)u2(k+m?1)u3(k+m?1)?um?1(k+m?1)um(k+m?1)]C = \left[ \begin{matrix} u_1(k) & u_2(k) & u_3(k) & \cdots & u_{m-1}(k) & u_m(k) \\ u_1(k+1) & u_2(k+1) & u_3(k+1) & \cdots & u_{m-1}(k+1) & u_m(k+1) \\ u_1(k+2) & u_2(k+2) & u_3(k+2) & \cdots & u_{m-1}(k+2) & u_m(k+2) \\ \cdots & \cdots & \cdots & \cdots & \cdots & \cdots \\ u_1(k+m-2) & u_2(k+m-2) & u_3(k+m-2) & \cdots & u_{m-1}(k+m-2) & u_m(k+m-2) \\ u_1(k+m-1) & u_2(k+m-1) & u_3(k+m-1) & \cdots & u_{m-1}(k+m-1) & u_m(k+m-1) \end{matrix} \right]C=?????????u1?(k)u1?(k+1)u1?(k+2)?u1?(k+m?2)u1?(k+m?1)?u2?(k)u2?(k+1)u2?(k+2)?u2?(k+m?2)u2?(k+m?1)?u3?(k)u3?(k+1)u3?(k+2)?u3?(k+m?2)u3?(k+m?1)????????um?1?(k)um?1?(k+1)um?1?(k+2)?um?1?(k+m?2)um?1?(k+m?1)?um?(k)um?(k+1)um?(k+2)?um?(k+m?2)um?(k+m?1)??????????
這個(gè)矩陣被稱為離散信號(hào)的Casorati矩陣,它的行列式被稱為Casorati行列式,如果存在一個(gè)kkk使得∣C∣≠0|C|\ne 0∣C∣?=0,就稱這組離散信號(hào)線性無(wú)關(guān)。
正交多分辨率分析
定義八 假設(shè)u(t)u(t)u(t)是一個(gè)平方可積信號(hào),即u(t)∈L2(R)u(t) \in L^2(\mathbb{R})u(t)∈L2(R),取L2(R)L^2(\mathbb{R})L2(R)的一列遞增的子空間Vj,j∈ZV_j,j \in \mathbb{Z}Vj?,j∈Z,則根據(jù)定理三,存在
Vj+1=Vj⊕WjV_{j+1}=V_{j} \oplus W_{j}Vj+1?=Vj?⊕Wj?
其中Wj=Vj⊥W_{j}=V^{\perp}_jWj?=Vj⊥?,稱VjV_jVj?和WjW_jWj?分別為分辨率2?j2^{-j}2?j的尺度子空間與小波子空間。這樣可以實(shí)現(xiàn)在V1,W1,?,Wn,?V_1,W_1,\cdots,W_n,\cdotsV1?,W1?,?,Wn?,?中分別構(gòu)造對(duì)信號(hào)u(t)u(t)u(t)的近似,這種分析方法是正交多分辨率分析。
Orthogonal Procrustes Problem
假設(shè)我們對(duì)同一個(gè)對(duì)象進(jìn)行了兩次測(cè)量,測(cè)量結(jié)果分別為A,BA,BA,B,我們希望找一個(gè)正交矩陣QQQ使得
min?Q′Q=I∥A?BQ∥F\min_{Q'Q=I} \left\| A-BQ \right\|_FQ′Q=Imin?∥A?BQ∥F?
之所以要考慮這個(gè)問(wèn)題是因?yàn)槲覀兿M诓桓淖儨y(cè)量數(shù)據(jù)的scale與內(nèi)部線性相關(guān)性的前提下剔除掉第二次測(cè)量的“測(cè)量誤差”,使得兩次數(shù)據(jù)更具可比性。從幾何上看,我們?cè)噲D達(dá)成的是讓C(B)C(B)C(B)中的向量經(jīng)過(guò)一定的正交變換(旋轉(zhuǎn)、軸反射等)可以與C(A)C(A)C(A)的某個(gè)向量基本重合。
關(guān)于Frobenius范數(shù)有一個(gè)比較有用的構(gòu)造,對(duì)于任何矩陣MMM,
∥M∥F2=∑i∑jMij2=tr(MTM)\left\| M \right\|_F^2 = \sum_{i}\sum_{j}M_{ij}^2 = tr(M^TM)∥M∥F2?=i∑?j∑?Mij2?=tr(MTM)
因此
∥A?BQ∥F2=tr((A?BQ)′(A?BQ))=tr(A′A)+tr(Q′B′BQ)?2tr(Q′B′A)=tr(A′A)+tr(B′B)?2tr(Q′B′A)\left\| A-BQ \right\|_F^2 = tr((A-BQ)'(A-BQ)) \\ =tr(A'A)+tr(Q'B'BQ)-2tr(Q'B'A) = tr(A'A)+tr(B'B)-2tr(Q'B'A)∥A?BQ∥F2?=tr((A?BQ)′(A?BQ))=tr(A′A)+tr(Q′B′BQ)?2tr(Q′B′A)=tr(A′A)+tr(B′B)?2tr(Q′B′A)
所以上面的最小化等價(jià)于最大化tr(Q′B′A)tr(Q'B'A)tr(Q′B′A)。對(duì)B′AB'AB′A做奇異值分解,B′A=UΣV′B'A=U\Sigma V'B′A=UΣV′,
tr(Q′B′A)=tr(Q′UΣV′)=tr(V′Q′UΣ)≤tr(Σ)tr(Q'B'A) = tr(Q'U\Sigma V') = tr(V'Q'U\Sigma) \le tr(\Sigma)tr(Q′B′A)=tr(Q′UΣV′)=tr(V′Q′UΣ)≤tr(Σ)
當(dāng)且僅當(dāng)Q=UV′Q=UV'Q=UV′時(shí)取等。
《新程序員》:云原生和全面數(shù)字化實(shí)踐50位技術(shù)專家共同創(chuàng)作,文字、視頻、音頻交互閱讀總結(jié)
以上是生活随笔為你收集整理的应用矩阵分析1 子空间分析1 线性子空间基础的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: UA STAT687 线性模型II 最小
- 下一篇: UA SIE545 优化理论基础1 凸分