基于图卷积(GCN)和规则卷积(CNN)的情绪识别
作者丨張瑋瑋
學(xué)校丨東北大學(xué)碩士生
研究方向丨情緒識別
引言
論文動機(jī)
腦電信號因其易辨?zhèn)涡浴?zhǔn)確性高而被廣泛應(yīng)用于情緒識別。如何描述腦電信號與大腦活動區(qū)域之間的關(guān)系以及構(gòu)建腦電情緒識別模型仍然是基于腦電圖數(shù)據(jù)的情緒識別具有挑戰(zhàn)性的課題。
基于以往的研究內(nèi)容可知,CNN 可以利用卷積核提取抽象高層次特征,適用于 1D,2D,3D 規(guī)則網(wǎng)格數(shù)據(jù)。但是腦電通道的分布結(jié)構(gòu)是不規(guī)則的,腦電數(shù)據(jù)并不是規(guī)則的歐幾里德結(jié)構(gòu)數(shù)據(jù)。
圖卷積對非歐幾里德結(jié)構(gòu)數(shù)據(jù)處理有極大優(yōu)勢,僅需幾個層就足以學(xué)習(xí)圖結(jié)構(gòu)的拓?fù)涮卣?#xff0c;但是過多的圖卷積層可能得不到更多的辨別能力的特征。本文提出了一種兼顧抽象深層特征和拓?fù)涮卣鞯奶崛》椒ā?/strong>
論文工作
本文設(shè)計了一個圖卷積寬度網(wǎng)絡(luò)(GCB-Net)來研究腦電圖結(jié)構(gòu)數(shù)據(jù)更深層次的信息。它利用圖卷積層來提取圖結(jié)構(gòu)輸入的特征,并疊加多個規(guī)則卷積層來提取相對抽象的特征。最后的連接使用了廣義的概念,保留了所有層的輸出,允許模型在廣闊的空間中搜索特性。為了提高 GCB-Net 的性能,應(yīng)用了廣義寬度系統(tǒng)(BLS)來增強(qiáng)其特性。
GCB-Net知識基礎(chǔ)
圖卷積神經(jīng)網(wǎng)絡(luò)
▲?圖1.?圖卷積框架
在圖 *G 上,x 和 y 兩個信號的卷積表示為:
U 是圖的拉普拉斯矩陣 L 的特征矩陣,⊙ 表示 hadamard product,對于兩個向量,就是進(jìn)行內(nèi)積運算;對于維度相同的兩個矩陣,就是對應(yīng)元素的乘積運算。?
將卷積核的圖傅里葉變換以對角矩陣的形式表示,其中是對角矩陣,其對角線元素是拉普拉斯矩陣 L 的特征值。
則信號 x 經(jīng)過卷積核的卷積輸出 y 可表示為。?
讓表示要學(xué)習(xí)的最優(yōu)鄰接矩陣,信號 x 的圖卷積輸出為。?
采用 K 階切比雪夫多項式(Chebyshev polynomials)來代替卷積核的圖傅里葉變換,以簡化計算復(fù)雜度。基于 K 階切比雪夫多項式,可以近似為:
SP-Length 表示從一個節(jié)點到另一個節(jié)點必須遍歷的最小邊數(shù)。
其中,為切比雪夫多項式系數(shù),是標(biāo)準(zhǔn)化的,標(biāo)準(zhǔn)化后,其對角線元素取值在 [-1,1],為中最大的元素,是 N 階單位陣。可按以下遞推公式計算得到:
即有:
其中,。
上式表示計算 x 的圖卷積可以表示為 x 與切比雪夫多項式各分量卷積結(jié)果的組合。?
利用交叉熵計算的損失函數(shù)為:
其中,Θ 是模型參數(shù)矩陣,α 是一個正則化系數(shù)。模型可以通過以下公式更新 A:
ρ 是模型的學(xué)習(xí)速率。
寬度學(xué)習(xí)系統(tǒng)
▲?圖2.?寬度學(xué)習(xí)系統(tǒng)框架
BLS 提供了一種可選的學(xué)習(xí)結(jié)構(gòu),通過隨機(jī)方法將特性擴(kuò)展到廣闊的空間。網(wǎng)絡(luò)主要由特征節(jié)點和增強(qiáng)節(jié)點構(gòu)成。?
輸入數(shù)據(jù)集和標(biāo)簽矩陣表示為與,其中,N 是樣本的數(shù)量,M 是特征的維數(shù),C 是類的數(shù)量。
特征節(jié)點可以生成為:
所有特征節(jié)點的集合表示為:
同樣,增強(qiáng)節(jié)點的定義可以寫成如下公式:
所有增強(qiáng)節(jié)點的集合表示為:
將特征節(jié)點與增強(qiáng)節(jié)點集成,最終輸出可計算為:
論文方法
Original GCB-Net
▲?圖3.?GCB-Net框架
如圖 3 所示,該網(wǎng)絡(luò)首先利用切比雪夫圖卷積來處理不規(guī)則網(wǎng)格數(shù)據(jù)。然后利用正則卷積提取更高層次的特征。在所有的卷積之后,不同層的輸出被平鋪成一維向量并連接在一起。然后,對網(wǎng)絡(luò)進(jìn)行全連通層預(yù)測,并利用 softmax 函數(shù)進(jìn)行預(yù)測。Original GCB-net 偽代碼如圖 4 所示。
▲?圖4.?Original GCB-Net偽代碼
▲?圖5.?GCB-net with BLS偽代碼
GCB-net with BLS
▲?圖6.?GCB-net with BLS過程
為了提高 GCB-net 的性能,可以使用 BLS 來增強(qiáng) GCB-net 的特征。首先通過特征映射和增強(qiáng)映射將 GCB 特征擴(kuò)展到隨機(jī)的廣義空間,然后通過特征節(jié)點和增強(qiáng)節(jié)點的連接對輸出進(jìn)行預(yù)測。GCB-net with BLS 偽代碼與示意圖如圖 5 和圖 6 所示。
結(jié)果
為了評估本文方法的性能,本文在兩個基準(zhǔn)的情緒數(shù)據(jù)庫上進(jìn)行了實驗,即 DREAMER 和 SEED。SEED 數(shù)據(jù)集實驗結(jié)果如圖 7 所示。可以發(fā)現(xiàn),所有模型的識別精度在 β 和 γ 頻段都遠(yuǎn)遠(yuǎn)高于其他的頻段,這與之前的腦電情緒識別研究結(jié)果一致。
▲?圖7.?SEED數(shù)據(jù)集實驗結(jié)果
GCB-net with BLS 取得了最好的效果,驗證了模型的有效性。DREAMER 數(shù)據(jù)集實驗結(jié)果如圖 8 所示,可以觀察到,大部分方法在 Dominance 維度識別效果較好,雖然 GCB-net+BLS 的性能相對于 GCB-net 并沒有得到提升,但其準(zhǔn)確性仍優(yōu)于或接近 DGCNN 的結(jié)果,說明了 GCB 模型的有效性。
▲?圖8. DREAMER數(shù)據(jù)集實驗結(jié)果
結(jié)論
本文將 GCB-net 引入到情緒識別中,利用 EEG-channel 信號識別情緒,構(gòu)建了可以探索圖結(jié)構(gòu)數(shù)據(jù)更深層次信息的網(wǎng)絡(luò)。在這項工作中,首先使用圖卷積層來處理圖結(jié)構(gòu)輸入,然后堆疊多個規(guī)則 CNN 層來抽象深層特征。最后,將各個層次的輸出連接起來,為模型提供廣闊的搜索空間。
點擊以下標(biāo)題查看更多往期內(nèi)容:?
時空域分層神經(jīng)網(wǎng)絡(luò)腦電情緒識別模型
EmotionMeter:更精準(zhǔn)地識別人類情緒
腦電情緒識別:腦功能連接網(wǎng)絡(luò)與局部激活信息結(jié)合
變分推斷(Variational Inference)最新進(jìn)展簡述
蒙特卡洛梯度估計方法(MCGE)簡述
從三大頂會論文看百變Self-Attention
#投 稿 通 道#
?讓你的論文被更多人看到?
如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢?答案就是:你不認(rèn)識的人。
總有一些你不認(rèn)識的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。?
PaperWeekly 鼓勵高校實驗室或個人,在我們的平臺上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)習(xí)心得或技術(shù)干貨。我們的目的只有一個,讓知識真正流動起來。
?????來稿標(biāo)準(zhǔn):
? 稿件確系個人原創(chuàng)作品,來稿需注明作者個人信息(姓名+學(xué)校/工作單位+學(xué)歷/職位+研究方向)?
? 如果文章并非首發(fā),請在投稿時提醒并附上所有已發(fā)布鏈接?
? PaperWeekly 默認(rèn)每篇文章都是首發(fā),均會添加“原創(chuàng)”標(biāo)志
???? 投稿郵箱:
? 投稿郵箱:hr@paperweekly.site?
? 所有文章配圖,請單獨在附件中發(fā)送?
? 請留下即時聯(lián)系方式(微信或手機(jī)),以便我們在編輯發(fā)布時和作者溝通
????
現(xiàn)在,在「知乎」也能找到我們了
進(jìn)入知乎首頁搜索「PaperWeekly」
點擊「關(guān)注」訂閱我們的專欄吧
關(guān)于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學(xué)術(shù)平臺。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點擊 |?閱讀原文?| 下載論文
總結(jié)
以上是生活随笔為你收集整理的基于图卷积(GCN)和规则卷积(CNN)的情绪识别的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 从工作的角度,NLP/CV/推荐系统选哪
- 下一篇: 为什么轮胎侧面帘线层很薄呢?