为什么正则化可以起到对模型容量进行控制_论文解读 | 基于正则化图神经网络的脑电情绪识别...
?PaperWeekly 原創(chuàng) ·?作者|張瑋瑋
學(xué)校|東北大學(xué)碩士生
研究方向|情緒識(shí)別
引言論文動(dòng)機(jī)?現(xiàn)有的基于腦電圖的情緒識(shí)別方法大多不能很好地解決以下三個(gè)方面的問(wèn)題:1. 腦電圖信號(hào)的拓?fù)浣Y(jié)構(gòu)沒(méi)有被有效地利用來(lái)學(xué)習(xí)更多的有鑒別性的腦電圖特征然而,大多數(shù)方法需要在頭皮上對(duì)腦電圖通道進(jìn)行 2D 表示,這可能會(huì)在 flatten 過(guò)程中造成信息丟失,因?yàn)橥ǖ缹?shí)際上是在 3D 空間中排列的;2. 不同受試者的腦電圖信號(hào)差異較大,不利于訓(xùn)練分類器的泛化;3. 參與者在觀看引發(fā)情緒的刺激時(shí),可能并不總是產(chǎn)生與刺激一致的預(yù)期情緒。目前研究中,在基于腦電圖的情緒識(shí)別方面,還沒(méi)有人試圖解決噪音標(biāo)簽的問(wèn)題。作者提出了一個(gè)正則化的圖神經(jīng)網(wǎng)絡(luò)(RGNN)來(lái)解決上述三個(gè)問(wèn)題。論文標(biāo)題:EEG-Based Emotion Recognition Using Regularized Graph Neural Networks
論文鏈接:https://arxiv.org/abs/1907.07835
源碼鏈接:https://github.com/zhongpeixiang/RGNN
論文工作?腦電信號(hào)中的每個(gè)通道看作是圖形中的一個(gè)節(jié)點(diǎn)。RGNN 模型擴(kuò)展了簡(jiǎn)單圖卷積網(wǎng)絡(luò)(SGC),利用了腦電圖信號(hào)的拓?fù)浣Y(jié)構(gòu),即根據(jù)腦網(wǎng)絡(luò)組織的經(jīng)濟(jì)性,作者提出了一個(gè)符合生物原理的稀疏鄰接矩陣來(lái)捕捉局部和全局的通道間關(guān)系。局部通道間關(guān)系連接附近的神經(jīng)元群,可以顯示解剖學(xué)上的連通性。整體的通道間關(guān)系連接左右腦半球之間的神經(jīng)元群,可以揭示與情緒相關(guān)的功能連接。此外,作者提出一個(gè)節(jié)點(diǎn)域?qū)褂?xùn)練(NodeDAT)來(lái)正則化圖模型,以更好地解決跨被試分類場(chǎng)景,并且還提出了一種基于情緒感知的分布學(xué)習(xí)(EmotionDL)方法來(lái)解決數(shù)據(jù)集中的噪聲標(biāo)簽問(wèn)題。RGNN知識(shí)基礎(chǔ)簡(jiǎn)單圖卷積網(wǎng)絡(luò)給定圖,表示節(jié)點(diǎn)集,表示邊集。表示特征矩陣,表示節(jié)點(diǎn)的數(shù)目,?輸入特征的維度。?可以用加權(quán)鄰接矩陣?表示。一般情況下,GNNs?對(duì)輸入?學(xué)習(xí)一個(gè)特征變換函數(shù),生成輸出?,表示輸出的維度。特征轉(zhuǎn)換可以寫(xiě)成:?,這里?,。GCN (graph convolution network)?的方法如公式所示:其中??表示??的對(duì)角度矩陣,規(guī)范化鄰接矩陣?可以防止變得過(guò)大。SGC 方法消除非線性函數(shù) ?和將所有層之間的所有線性變換 ?重新參數(shù)化為一個(gè)線性變換?,如下所示:這里:本質(zhì)上?SGC?計(jì)算拓?fù)涓兄木€性變換?,最后一個(gè)線性變換?。譜圖卷積表示為無(wú)向連接圖,其拉普拉斯矩陣定義為:?L 是?laplacian?矩陣,D 是頂點(diǎn)的度矩陣(對(duì)角矩陣),對(duì)角線上的元素?依次為各個(gè)頂點(diǎn)的度,W 是圖的鄰接矩陣。歸一化的定義是:
其中,拉普拉斯矩陣?被傅里葉基?對(duì)角化,這里,?,是單位矩陣。給定空間信號(hào)它的圖傅里葉變換定義為?,逆變換為??。在圖上,和?兩個(gè)信號(hào)的卷積表示為:其中,表示 hadamard product。信號(hào)?被?濾波輸出?可以表示為:
其中,?可以表示為:
采用階切比雪夫多項(xiàng)式(Chebyshev polynomials)來(lái)代替卷積核的圖傅里葉變換??以簡(jiǎn)化計(jì)算復(fù)雜度。基于階切比雪夫多項(xiàng)式,可以?近似為:
其中,為切比雪夫多項(xiàng)式系數(shù),是標(biāo)準(zhǔn)化的 ?標(biāo)準(zhǔn)化后,其對(duì)角線元素取值在?[-1,1],是中最大的元素,是 N 階單位陣。可按以下遞推公式計(jì)算得到:則對(duì)信號(hào)的圖濾波操作可以寫(xiě)為:論文方法1.?鄰接矩陣▲?圖1.?62 EEG通道圖(灰色對(duì)稱通道通過(guò)紅色虛線全局連接)
作者在鄰接矩陣中初始化局部通道間關(guān)系,如下所示:其中?表示通道間的物理距離,?代表一個(gè)稀疏超參數(shù)衰變率可以控制通道之間的聯(lián)系。圖 1 描述了 SEED 和 SEED-IV 的全局連接關(guān)系,為了利用差分不對(duì)稱信息,我們將初始化全局通道間關(guān)系到?[-1,0]?如下:?,鄰接矩陣旨在表示結(jié)合局部解剖連接和與情緒相關(guān)的整體功能連接的大腦網(wǎng)絡(luò)。2. RGNN▲?圖2. RGNN整體框架
圖 2 表示整體 RGNN 框架,結(jié)合 NodeDAT 和 EmotionDL,總體損失函數(shù)計(jì)算如下:?,分別為節(jié)點(diǎn)域?qū)褂?xùn)練與情緒感知分布學(xué)習(xí)的損失函數(shù)。其偽代碼如 Algorithm 1 所示。節(jié)點(diǎn)域?qū)褂?xùn)練 (NodeDAT)
表示給定源域數(shù)據(jù),表示未標(biāo)記的目標(biāo)域數(shù)據(jù)。領(lǐng)域分類器的目標(biāo)是最小化以下兩個(gè)二進(jìn)制交叉熵?fù)p失的總和:域分類器的目標(biāo)是將源數(shù)據(jù)分類為 0,將目標(biāo)數(shù)據(jù)分類為 1。點(diǎn)的域概率可以表示為:域分類器利用一個(gè)梯度反轉(zhuǎn)層(GRL)來(lái)在反向傳播期間反轉(zhuǎn)域分類器的梯度。情緒感知分布學(xué)習(xí)作者轉(zhuǎn)換每個(gè)訓(xùn)練樣本標(biāo)簽轉(zhuǎn)化為所有類的先驗(yàn)概率分布。在 SEED 數(shù)據(jù)集中,有積極、中性和消極三類情緒,并有相應(yīng)的類指標(biāo)分別是 0 1 2,將轉(zhuǎn)換如下:在 SEED-IV 中,有四個(gè)類:中性、悲傷、恐懼和快樂(lè),分別對(duì)應(yīng)的類指標(biāo)為 0、1、2 和 3,將轉(zhuǎn)換如下:其中,表示在訓(xùn)練標(biāo)簽中控制噪音水平的超參數(shù)。在得到轉(zhuǎn)換后的類分布??后,我們的模型可以通過(guò)最小化以下 Kullback-Leibler (KL) 散度來(lái)進(jìn)行優(yōu)化:
結(jié)果為了評(píng)估本文方法的性能,作者在 SEED 與 SEED-IV 腦電圖數(shù)據(jù)集上進(jìn)行了 subject-dependent 和 subject-independent 實(shí)驗(yàn)。實(shí)驗(yàn)結(jié)果如表 1 與表 2 所示。RGNN 模型在兩個(gè)數(shù)據(jù)集上都取得了優(yōu)于所有基線的性能,包括使用所有頻帶的 DE 特征時(shí)的最優(yōu)良的 BiHDM 模型。除了提出的兩個(gè)正則化器外,主要的性能改進(jìn)可以歸結(jié)于兩個(gè)因素:1)鄰接矩陣包含了左右半球之間的全局通道間不對(duì)稱關(guān)系;2)我們的模型通過(guò)擴(kuò)展 SGC 來(lái)減少過(guò)擬合的問(wèn)題,這比 DGCNN 中使用的 ChebNet 簡(jiǎn)單得多。▲?圖3.?鄰接矩陣對(duì)角元素?zé)崃D
▲?圖4.?鄰接矩陣A中電極之間的前10個(gè)邊權(quán)值
圖 3 中前額葉、頂葉和枕葉區(qū)域有強(qiáng)烈的活動(dòng),表明這些區(qū)域可能與大腦的情感處理有很強(qiáng)的關(guān)系。圖 4 顯示了鄰接矩陣A中,邊權(quán)值最大的前 10 個(gè)通道之間的連接。注意,在學(xué)習(xí) A 之后,所有的全局連接仍然是最強(qiáng)的連接,這再次證明了全局通道間關(guān)系對(duì)于情感識(shí)別是必不可少的。結(jié)論本文提出了一種基于腦電圖信號(hào)的正則化圖形神經(jīng)網(wǎng)絡(luò)。我們的模型在生物學(xué)上支持捕獲本地和全球渠道間的關(guān)系。此外,我們提出了兩個(gè)正則化器,即 NodeDAT 和 EmotionDL,以提高我們的模型對(duì)跨被試情緒識(shí)別的魯棒性。模型分析表明,作者提出的生物支持鄰接矩陣和兩個(gè)正則化器對(duì)模型性能做出顯著的貢獻(xiàn)。對(duì)神經(jīng)元活動(dòng)的研究表明,前額葉、頂葉和枕葉可能是情感識(shí)別中信息量最大的區(qū)域。點(diǎn)擊以下標(biāo)題查看更多往期內(nèi)容:?
AAAI 2020?| 語(yǔ)義感知BERT(SemBERT)
淺談 Knowledge-Injected BERTs
從 Word2Vec 到 BERT
后 BERT 時(shí)代的那些 NLP 預(yù)訓(xùn)練模型
BERT+知識(shí)圖譜:知識(shí)賦能的K-BERT模型
從三大頂會(huì)論文看百變Self-Attention
#投 稿 通 道#
?讓你的論文被更多人看到?
如何才能讓更多的優(yōu)質(zhì)內(nèi)容以更短路徑到達(dá)讀者群體,縮短讀者尋找優(yōu)質(zhì)內(nèi)容的成本呢?答案就是:你不認(rèn)識(shí)的人。
總有一些你不認(rèn)識(shí)的人,知道你想知道的東西。PaperWeekly 或許可以成為一座橋梁,促使不同背景、不同方向的學(xué)者和學(xué)術(shù)靈感相互碰撞,迸發(fā)出更多的可能性。?
PaperWeekly 鼓勵(lì)高校實(shí)驗(yàn)室或個(gè)人,在我們的平臺(tái)上分享各類優(yōu)質(zhì)內(nèi)容,可以是最新論文解讀,也可以是學(xué)習(xí)心得或技術(shù)干貨。我們的目的只有一個(gè),讓知識(shí)真正流動(dòng)起來(lái)。
??來(lái)稿標(biāo)準(zhǔn):
? 稿件確系個(gè)人原創(chuàng)作品,來(lái)稿需注明作者個(gè)人信息(姓名+學(xué)校/工作單位+學(xué)歷/職位+研究方向)?
? 如果文章并非首發(fā),請(qǐng)?jiān)谕陡鍟r(shí)提醒并附上所有已發(fā)布鏈接?
? PaperWeekly 默認(rèn)每篇文章都是首發(fā),均會(huì)添加“原創(chuàng)”標(biāo)志
? 投稿郵箱:
? 投稿郵箱:hr@paperweekly.site?
? 所有文章配圖,請(qǐng)單獨(dú)在附件中發(fā)送?
? 請(qǐng)留下即時(shí)聯(lián)系方式(微信或手機(jī)),以便我們?cè)诰庉嫲l(fā)布時(shí)和作者溝通
?
現(xiàn)在,在「知乎」也能找到我們了
進(jìn)入知乎首頁(yè)搜索「PaperWeekly」
點(diǎn)擊「關(guān)注」訂閱我們的專欄吧
關(guān)于PaperWeekly
PaperWeekly 是一個(gè)推薦、解讀、討論、報(bào)道人工智能前沿論文成果的學(xué)術(shù)平臺(tái)。如果你研究或從事 AI 領(lǐng)域,歡迎在公眾號(hào)后臺(tái)點(diǎn)擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
▽ 點(diǎn)擊 |?
《新程序員》:云原生和全面數(shù)字化實(shí)踐50位技術(shù)專家共同創(chuàng)作,文字、視頻、音頻交互閱讀總結(jié)
以上是生活随笔為你收集整理的为什么正则化可以起到对模型容量进行控制_论文解读 | 基于正则化图神经网络的脑电情绪识别...的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 汽车水箱用泥沙堵塞了可以用火碱清洗吗?
- 下一篇: extjs 计算日期之和_财报分析之利润