Python 第三方模块之 numpy.linalg - 线性代数
目錄
numpy.linalg.det() 行列式
numpy.linalg.solve() 方程的解
numpy.linalg.inv()?逆矩陣
np.linalg.eig 特征值和特征向量
np.linalg.svd 奇異值分解
np.linalg.pinv 廣義逆矩陣(QR分解)
numpy.linalg模塊包含線性代數的函數。使用這個模塊,可以計算逆矩陣、求特征值、解線性方程組以及求解行列式等線性代數所需的功能
numpy.linalg.det() 行列式
numpy.linalg.det() 函數計算輸入矩陣的行列式。
行列式在線性代數中是非常有用的值。 它從方陣的對角元素計算。 對于 2×2 矩陣,它是左上和右下元素的乘積與其他兩個的乘積的差。換句話說,對于矩陣[[a,b],[c,d]],行列式計算為 ad-bc。 較大的方陣被認為是 2×2 矩陣的組合。
import numpy as np a = np.array([[1,2], [3,4]]) print (np.linalg.det(a)) # 輸出結果為:-2.0b = np.array([[6,1,1], [4, -2, 5], [2,8,7]]) print (b) print (np.linalg.det(b)) print (6*(-2*7 - 5*8) - 1*(4*7 - 5*2) + 1*(4*8 - -2*2))輸出結果為: [[ 6 1 1][ 4 -2 5][ 2 8 7]] -306.0 -306numpy.linalg.solve() 方程的解
numpy.linalg.solve() 函數給出了矩陣形式的線性方程的解。比如求解形如 Ax = b 的線性方程組,其中 A 為矩陣,b 為一維或二維的數組,x 是未知變量
import numpy as np# 創建矩陣和數組 B = np.mat("1 -2 1;0 2 -8;-4 5 9") b = np.array([0,8,-9])# 調用solve函數求解線性方程 x = np.linalg.solve(B,b) print (x) # [29. 16. 3.]# 使用dot函數檢查求得的解是否正確 print (np.dot(B , x)) # [[ 0. 8. -9.]]numpy.linalg.inv()?逆矩陣
numpy.linalg.inv() 函數計算矩陣的乘法逆矩陣。
逆矩陣(inverse matrix):設A是數域上的一個n階矩陣,若在相同數域上存在另一個n階矩陣B,使得: AB=BA=E ,則我們稱B是A的逆矩陣,而A則被稱為可逆矩陣。注:E為單位矩陣。
注:矩陣必須是方陣且可逆,否則會拋出LinAlgError異常
?
import numpy as np x = np.array([[1,2],[3,4]]) y = np.linalg.inv(x) print (x) print (y) print (np.dot(x,y))輸出結果為: [[1 2][3 4]] [[-2. 1. ][ 1.5 -0.5]] [[1.0000000e+00 0.0000000e+00][8.8817842e-16 1.0000000e+00]]實例
import numpy as np a = np.array([[1,1,1],[0,2,5],[2,5,-1]]) print ('數組 a:') print (a) ainv = np.linalg.inv(a) print ('a 的逆:') print (ainv) print ('矩陣 b:') b = np.array([[6],[-4],[27]]) print (b) print ('計算:A^(-1)B:') x = np.linalg.solve(a,b) print (x) # 這就是線性方向 x = 5, y = 3, z = -2 的解輸出結果為: 數組 a: [[ 1 1 1][ 0 2 5][ 2 5 -1]] a 的逆: [[ 1.28571429 -0.28571429 -0.14285714][-0.47619048 0.14285714 0.23809524][ 0.19047619 0.14285714 -0.0952381 ]] 矩陣 b: [[ 6][-4][27]] 計算:A^(-1)B: [[ 5.][ 3.][-2.]]np.linalg.eig 特征值和特征向量
特征值(eigenvalue)即方程 Ax = ax 的根,是一個標量。特征向量(eigenvector)是關于特征值的向量
numpy.linalg模塊中,eigvals函數可以計算矩陣的特征值,而eig函數可以返回一個包含特征值和對應的特征向量的元組
import numpy as np# 創建一個矩陣 C = np.mat("3 -2;1 0")# 調用eigvals函數求解特征值 c0 = np.linalg.eigvals(C) print (c0) # [ 2. 1.]# 使用eig函數求解特征值和特征向量 (該函數將返回一個元組,按列排放著特征值和對應的特征向量,其中第一列為特征值,第二列為特征向量) c1,c2 = np.linalg.eig(C) print (c1) # [ 2. 1.]? print (c2) #[[ 0.89442719 0.70710678] # [ 0.4472136 0.70710678]]# 使用dot函數驗證求得的解是否正確 for i in range(len(c1)): print ("left:",np.dot(C,c2[:,i])) print ("right:",c1[i] * c2[:,i]) #left: [[ 1.78885438] # [ 0.89442719]] #right: [[ 1.78885438] # [ 0.89442719]] #left: [[ 0.70710678] # [ 0.70710678]] #right: [[ 0.70710678] # [ 0.70710678]]np.linalg.svd 奇異值分解
SVD(Singular Value Decomposition,奇異值分解)是一種因子分解運算,將一個矩陣分解為3個矩陣的乘積
numpy.linalg模塊中的svd函數可以對矩陣進行奇異值分解。該函數返回3個矩陣——U、Sigma和V,其中U和V是正交矩陣,Sigma包含輸入矩陣的奇異值。
import numpy as np# 分解矩陣 D = np.mat("4 11 14;8 7 -2")# 使用svd函數分解矩陣 U,Sigma,V = np.linalg.svd(D,full_matrices=False) print ("U:",U) # U: [[-0.9486833 -0.31622777] # [-0.31622777 0.9486833 ]]print ("Sigma:",Sigma) # Sigma: [ 18.97366596 9.48683298]print ("V",V) # V [[-0.33333333 -0.66666667 -0.66666667] # [ 0.66666667 0.33333333 -0.66666667]] # 結果包含等式中左右兩端的兩個正交矩陣U和V,以及中間的奇異值矩陣Sigma# 使用diag函數生成完整的奇異值矩陣。將分解出的3個矩陣相乘 print (U * np.diag(Sigma) * V) #[[ 4. 11. 14.] # [ 8. 7. -2.]]np.linalg.pinv 廣義逆矩陣(QR分解)
使用numpy.linalg模塊中的pinv函數進行求解,
注:inv函數只接受方陣作為輸入矩陣,而pinv函數則沒有這個限制
import numpy as np# 創建一個矩陣 E = np.mat("4 11 14;8 7 -2")# 使用pinv函數計算廣義逆矩陣 pseudoinv = np.linalg.pinv(E) print (pseudoinv) #[[-0.00555556 0.07222222] # [ 0.02222222 0.04444444] # [ 0.05555556 -0.05555556]]# 將原矩陣和得到的廣義逆矩陣相乘 print (E * pseudoinv) #[[ 1.00000000e+00 -5.55111512e-16] # [ 0.00000000e+00 1.00000000e+00]]?
總結
以上是生活随笔為你收集整理的Python 第三方模块之 numpy.linalg - 线性代数的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 斯特灵公式求阶乘c语言,斯特林公式求阶乘
- 下一篇: 常用的正则表达式大全(数字、字符、固定格