论文浅尝 | 嵌入常识知识的注意力 LSTM 模型用于特定目标的基于侧面的情感分析...
MaY, Peng H, Cambria E. Targeted aspect-based sentiment analysis via embedding commonsense knowledge into an attentive LSTM[C]//AAAI. 2018.
?
任務簡介
特定目標的基于側面的情感分析,在原來基于側面的情感分析的基礎上,進一步挖掘細粒度的信息,分析特定對象的側面級別的情感極性。具體任務的示例如圖1所示,給定句子識別該句子描述了哪個目標的哪個側面,并且識別出關于該側面的情感極性。
?
圖 1 特定目標的側面級別的情感分析示例
圖 2 文本描述多個目標的多個側面的示例
從圖 2 的示例中,我們可以看出真實的文本描述中,我們可能同時描述多個目標和關于這些目標的多個側面,原來基于側面的情感分析,一般用于評論分析,假定目標實體已經給定,因此該任務只能識別出側面以及分類該側面的情感,更一般的情況,該任務并不能解決,因此,需要構建新的任務,特定目標的基于側面的情感分析,同時抽取文本的描述的目標、它們對應的側面以及描述這些側面的情感極性。例如,給定句子“I live in [West London] for years. I like it and itis safe to live in much of [west London]. Except [Brent] maybe.”包含兩個目標[west London]和[Brent]。我們的目標就是識別目標的側面并且分類這些側面的情感。我們想到的輸出就是關于目標[WestLondon]的結果[‘general’:positive;‘safety’:positive]和關于目標[Brent]的結果[‘general’: negative; ‘safety’:negative]。
現有方法的不足:
(1)在一個句子中,同一個目標可能包含多個實例(同一個目標的不同表述方式,例如,同義詞、簡寫等)或者一個目標對應一個句子中的多個詞語。但是,現有的方法都假設所有的實例對于情感分類的重要性是一樣的,簡單地計算所有實例的向量的均值。事實上,同一個目標中的個別實例對于情感分類的重要性明顯高于其他的實例。
(2)現有的層次注意力機制模型將關于給定目標、側面和情感的建模過度簡化成一種黑盒的神經網絡模型。現有的研究方法都沒有引入外部知識(情感知識或者常識知識)到深度神經網絡,這些知識可以有助于側面和情感極性的識別。
模型簡述和常識知識:
本文提出的神經結構如圖2所示,包含兩個模塊:序列編碼器和層次注意力模塊。給定一個句子s={w1,w2,…,wL},首先查閱詞向量表將句子中輸入的詞語全部變成詞向量{vw1,vw2,…,vwL}。其中序列編碼器基于雙向LSTM,將詞向量轉換成中間隱含層序列輸出,注意力模塊置于隱含層輸出的頂部,其中比較特殊的是,本結構中加入目標級別的注意力模塊該模塊的輸入不是序列全部的中間隱含層輸出,而是序列中描述目標對象對應的位置的詞語的隱含層輸出(如圖2中的紫色模塊),計算這些詞語的自注意向量(vt)。這里目標級別的注意力模塊的輸出表示目標,目標的表示結合側面的詞向量用于計算句子級別的注意力表示,將整個句子表示一個向量,這個句子級別的注意力模塊返回一個關于特定目標和側面的句子向量,然后用這個向量預測這個目標對應的側面的情感極性。
圖 3 注意力神經結構
為了提升情感分類的精確度,本文使用常識知識作為知識源嵌入到序列編碼器中。這里使用 SenticNet 作為常識知識庫,該知識庫包含了 5000 個概念關聯了豐富的情感屬性(如表1所示),這些情感屬性不但提供了概念級別的表示,同時提供了側面和它們的情感之間對應的語義關聯。例如,概念“rottenfish”包含屬性“KindOf-food”可以直接關聯到側面“restaurant”或者“food quality”,同時情感概念“joy”可以支撐情感極性的分類。(如圖4所示)
表 1 SenticNet 的示例
因為 SenticNet 的高維度阻礙了將這些常識知識融合到深度神經網絡結構中。AffectiveSpace 提出了方法將 SenticNet 中的概念轉化成連續低維度的向量,而且沒有損失原始空間中的語義和情感關聯。基于這個新的概念空間,本文將概念級別的信息嵌入到深度神經網絡模型中可以更好地分類自然語言文本中的側面和情感分類。
圖 4 SenticNet 語義網絡的部分
實驗結果
本文主要評估了兩個子任務:一是側面分類,二是基于側面的情感分類;主要評估兩個測度,精確度、Macro-F1和Micro-F1;實驗室的數據集包括SentiHood和Semeval-2015;常識知識庫使用SenticNet和使用AffectiveSpace作為概念embedding,如果沒有抽取到概念,那么使用零向量作為輸入。實驗結果如圖5和圖6所示。
圖 5 在 SentiHood 數據集上的性能
圖 6 Semeval-2015數據集的性能
論文筆記整理:徐康,南京郵電大學講師,研究方向為情感分析、知識圖譜。
OpenKG.CN
中文開放知識圖譜(簡稱OpenKG.CN)旨在促進中文知識圖譜數據的開放與互聯,促進知識圖譜和語義技術的普及和廣泛應用。
轉載須知:轉載需注明來源“OpenKG.CN”、作者及原文鏈接。如需修改標題,請注明原標題。
?
點擊閱讀原文,進入 OpenKG 博客。
總結
以上是生活随笔為你收集整理的论文浅尝 | 嵌入常识知识的注意力 LSTM 模型用于特定目标的基于侧面的情感分析...的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 论文浅尝 | 二维卷积知识图谱嵌入
- 下一篇: 白硕 | 基于区块链的众包社区激励机制