特征向量中心性
特征向量中心性的基本思想是,一個節(jié)點的中心性是相鄰節(jié)點中心性的函數(shù)。也就是說,與你連接的人越重要,你也就越重要。
特征向量中心性和點度中心性不同,一個點度中心性高即擁有很多連接的節(jié)點,但特征向量中心性不一定高,因為所有的連接者有可能特征向量中心性很低。同理,特征向量中心性高并不意味著它的點度中心性高,它擁有很少但很重要的連接者也可以擁有高特征向量中心性。
考慮下面的圖,以及相應(yīng)的5x5的鄰接矩陣(Adjacency Matrix),A。
A=[0111010100110101010100010]A=\left[\begin{array}{ccccc} 0 & 1 & 1 & 1 & 0 \\ 1 & 0 & 1 & 0 & 0 \\ 1 & 1 & 0 & 1 & 0 \\ 1 & 0 & 1 & 0 & 1 \\ 0 & 0 & 0 & 1 & 0 \end{array}\right] A=???????01110?10100?11010?10101?00010????????
現(xiàn)在考慮x,一個5x1的向量,向量的值對應(yīng)圖中的每個點。在這種情況下,我們計算的是每個點的點度中心性(degree centrality),即以點的連接數(shù)來衡量中心性的高低。
矩陣A乘以這個向量的結(jié)果是一個5x1的向量:
A×x=(0111010100110101010100010)(32331)=(0×3+1×2+1×3+1×3+0×11×3+0×2+1×3+0×3+0×11×3+1×2+0×3+1×3+0×11×3+0×2+1×3+0×3+1×10×3+0×2+1×3+0×3+0×1)=[86873]\mathbf{A} \times \mathbf{x}=\left(\begin{array}{cccc} 0 & 1 & 1 & 1 & 0 \\ 1 & 0&1 & 0 & 0 \\ 1 & 1 & 0&1 & 0 \\ 1 & 0 & 1 & 0&1 \\ 0 & 0 & 0 & 1&0 \end{array}\right)\left(\begin{array}{l} 3 \\ 2 \\ 3 \\ 3 \\ 1 \end{array}\right)=\left(\begin{array}{l} 0 \times 3+1 \times 2+1 \times 3+1 \times 3+0 \times 1 \\ 1 \times 3+0 \times 2+1 \times 3+0 \times 3+0 \times 1 \\ 1 \times 3+1 \times 2+0 \times 3+1 \times 3+0 \times 1 \\ 1 \times 3+0 \times 2+1 \times 3+0 \times 3+1 \times 1 \\ 0 \times 3+0 \times 2+1 \times 3+0 \times 3+0 \times 1 \end{array}\right)=\left[\begin{array}{c} 8 \\ 6 \\ 8 \\ 7 \\ 3 \end{array}\right] A×x=???????01110?10100?11010?10101?00010???????????????32331????????=???????0×3+1×2+1×3+1×3+0×11×3+0×2+1×3+0×3+0×11×3+1×2+0×3+1×3+0×11×3+0×2+1×3+0×3+1×10×3+0×2+1×3+0×3+0×1????????=???????86873????????
結(jié)果向量的第一個元素是用矩陣A的第一行去“獲取”每一個與第一個點有連接的點的值(連接數(shù),點度中心性),也就是第2個、第3個和第4個點的值,然后將它們加起來。
換句話說,鄰接矩陣做的事情是將相鄰節(jié)點的求和值重新分配給每個點。這樣做的結(jié)果就是“擴(kuò)散了”點度中心性。你的朋友的朋友越多,你的特征向量中心性就越高。
我們繼續(xù)用矩陣A乘以結(jié)果向量。如何理解呢?
實際上,我們允許這一中心性數(shù)值再次沿著圖的邊界“擴(kuò)散”。我們會觀察到兩個方向上的擴(kuò)散(點既給予也收獲相鄰節(jié)點)。我們猜測,這一過程最后會達(dá)到一個平衡,特定點收獲的數(shù)量會和它給予相鄰節(jié)點的數(shù)量取得平衡。既然我們僅僅是累加,數(shù)值會越來越大,但我們最終會到達(dá)一個點,各個節(jié)點在整體中的比例會保持穩(wěn)定。
A×X=[0111010100110101010100010][x1x2x3x4x5]=[0?x1+1?x2+1?x3+1?x4+0?x51?x1+0?x2+1?x3+0?x4+0?x51?x1+1?x2+0?x3+1?x4+0?x51?x1+0?x2+1?x3+0?x4+1?x50?x1+0?x2+0?x3+1?x4+0?x5]A \times X=\left[\begin{array}{ccccc} 0 & 1 & 1 & 1 & 0 \\ 1 & 0 & 1 & 0 & 0 \\ 1 & 1 & 0 & 1 & 0 \\ 1 & 0 & 1 & 0 & 1 \\ 0 & 0 & 0 & 1 & 0 \end{array}\right]\left[\begin{array}{l} x_{1} \\ x_{2} \\ x_{3} \\ x_{4} \\ x_{5} \end{array}\right]=\left[\begin{array}{l} 0 \cdot x_{1}+1 \cdot x_{2}+1 \cdot x_{3}+1 \cdot x_{4}+0 \cdot x_{5} \\ 1 \cdot x_{1}+0 \cdot x_{2}+1 \cdot x_{3}+0 \cdot x_{4}+0 \cdot x_{5} \\ 1 \cdot x_{1}+1 \cdot x_{2}+0 \cdot x_{3}+1 \cdot x_{4}+0 \cdot x_{5} \\ 1 \cdot x_{1}+0 \cdot x_{2}+1 \cdot x_{3}+0 \cdot x_{4}+1 \cdot x_{5} \\ 0 \cdot x_{1}+0 \cdot x_{2}+0 \cdot x_{3}+1 \cdot x_{4}+0 \cdot x_{5} \end{array}\right] A×X=???????01110?10100?11010?10101?00010???????????????x1?x2?x3?x4?x5?????????=???????0?x1?+1?x2?+1?x3?+1?x4?+0?x5?1?x1?+0?x2?+1?x3?+0?x4?+0?x5?1?x1?+1?x2?+0?x3?+1?x4?+0?x5?1?x1?+0?x2?+1?x3?+0?x4?+1?x5?0?x1?+0?x2?+0?x3?+1?x4?+0?x5?????????
我們認(rèn)為,圖中的點存在一個數(shù)值集合,對于它,用矩陣A去乘不會改變向量各個數(shù)值的相對大小。也就是說,它的數(shù)值會變大,但乘以的是同一個因子。用數(shù)學(xué)符號表示就是:
Mx=λxM×[x1x2x3...xn]=[λx1λx2λx3...λxn]Mx = \lambda x \\ M \times \left[\begin{array}{ccccc} x_1 \\ x_2 \\ x_3 \\ ... \\ x_n \end{array}\right]=\left[\begin{array}{ccccc} \lambda x_1 \\ \lambda x_2 \\ \lambda x_3 \\ ... \\ \lambda x_n \end{array}\right] Mx=λxM×???????x1?x2?x3?...xn?????????=???????λx1?λx2?λx3?...λxn?????????
滿足這一屬性的向量就是矩陣M的特征向量。特征向量的元素就是圖中每個點的特征向量中心性。
記xix_ixi?是viv_ivi?的特征向量中心性度量,則:
EC(i)=xi=c∑j=inaijxjEC(i) = x_i=c\sum_{j=i}^{n}a_{ij}x_j EC(i)=xi?=cj=i∑n?aij?xj?
其中c表示一個比例常數(shù),記x=[x1,x2,...,xn]Tx=[x_1,x_2,...,x_n]^Tx=[x1?,x2?,...,xn?]T,經(jīng)過多次迭代達(dá)到穩(wěn)態(tài)時,可寫成如下形式:
x=cAxx = cAx x=cAx
其中c為一個比例常數(shù),aija_{ij}aij?當(dāng)且僅當(dāng)i與j相連,否則為0。
這里的x是矩陣A的特征值c?1c^{-1}c?1對應(yīng)的特征向量,也可以表示成如下形式:
Ax=λxAx=\lambda x Ax=λx
特征向量中心性的計算需要讀者具備矩陣乘法和特征向量的知識,但不影響這里大家對特征向量中心性思想的理解,不再贅述。
總結(jié)
- 上一篇: AOC 推出 Q24E11 23.8 寸
- 下一篇: 消息称华为将于 11 月 28 日推出新