论文浅尝 | 基于动态记忆的原型网络进行元学习以实现少样本事件探测
本文轉(zhuǎn)載自公眾號(hào):浙大KG。?
論文題目:Meta-Learning with Dynamic-Memory-Based Prototypical Network for Few-Shot Event Detection
本文作者:鄧淑敏,浙江大學(xué)在讀博士,研究方向?yàn)榈唾Y源條件下知識(shí)圖譜自動(dòng)化構(gòu)建關(guān)鍵技術(shù)研究
發(fā)表會(huì)議:WSDM 2020
論文鏈接:https://arxiv.org/abs/1910.11621
FewEvent數(shù)據(jù)集鏈接: https://github.com/231sm/Low_Resource_KBP
????事件抽取(EE)是一項(xiàng)旨在從非結(jié)構(gòu)化文本中提取結(jié)構(gòu)事件信息的任務(wù),它可以分兩個(gè)子任務(wù):事件檢測(cè)(event detection)與元素抽取(argument extraction)。事件檢測(cè)需要找到事件描述文本中的觸發(fā)詞,并將其對(duì)應(yīng)到指定的事件類型,元素抽取需要找到事件的參與元素,并劃分它們?cè)谑录邪缪莸慕巧1疚幕谀壳笆录槿?shù)據(jù)集的稀疏問題,以及考慮到現(xiàn)實(shí)世界中的新事件層出不窮,重新審視了事件檢測(cè)任務(wù)。在元學(xué)習(xí)的設(shè)置下,將事件檢測(cè)建模成少樣本學(xué)習(xí)任務(wù)(遵循N-Way-K-Shot的實(shí)驗(yàn)設(shè)定),稱之為少樣本事件檢測(cè)(FSED)。
圖1: 模型架構(gòu)
本文提出了一個(gè)基于動(dòng)態(tài)記憶的原型網(wǎng)絡(luò)(DMB-PN),該網(wǎng)絡(luò)利用動(dòng)態(tài)記憶網(wǎng)絡(luò)(DMN)為事件學(xué)習(xí)更好的原型,模型架構(gòu)如上圖所示。傳統(tǒng)的原型網(wǎng)絡(luò)簡(jiǎn)單地通過平均計(jì)算事件描述(event mention)文本的編碼來表示事件原型,這樣的做法只會(huì)用一次event mention的編碼。考慮到每個(gè)事件的樣本比較少,我們希望盡可能多地利用樣本的信息,因此區(qū)別于傳統(tǒng)的原型網(wǎng)絡(luò),DMB-PN整合了DMN,會(huì)多次從event mention中提取上下文信息,也就是說DMB-PN會(huì)多次使用event mention的編碼,并且進(jìn)行記憶存儲(chǔ)和更新。我們分別在固定事件類別數(shù)N的設(shè)置下進(jìn)行K-Shot的評(píng)估,以及在固定每個(gè)事件類樣本數(shù)K的設(shè)置下進(jìn)行N-Way的評(píng)估。實(shí)驗(yàn)表明,DMB-PN不僅比原型網(wǎng)絡(luò)處理樣本稀疏性的性能更好,而且在類型數(shù)目增多和樣本數(shù)目減少的時(shí)候性能更加穩(wěn)定。
此外,動(dòng)態(tài)記憶網(wǎng)絡(luò)還用于學(xué)習(xí)模型中的事件原型和句子編碼。具體來說,我們?cè)诘湫偷腄MN模塊中使用觸發(fā)詞作為問題來產(chǎn)生存儲(chǔ)向量,從而產(chǎn)生對(duì)觸發(fā)詞更敏感的句子編碼。由于DMN的多跳機(jī)制,使得它更有利于充分利用事件實(shí)例,因此基于DMN的模型在句子編碼方面更健壯,特別是在少樣本場(chǎng)景中。
部分實(shí)驗(yàn)結(jié)果如下所示:
表1: 5-Way-X-Shot的實(shí)驗(yàn)結(jié)果比較
表2: 10-Way-X-Shot的實(shí)驗(yàn)結(jié)果比較
圖2:?X-Way-15-Shot的實(shí)驗(yàn)結(jié)果比較
總而言之,這篇文章研究工作的主要貢獻(xiàn)是:
(1)正式定義和提出“少樣本事件檢測(cè)”的新問題,并生成了一個(gè)專門針對(duì)該問題名為FewEvent的新數(shù)據(jù)集;
(2)提出了一個(gè)基于動(dòng)態(tài)記憶的原型網(wǎng)絡(luò)的新框架DMB-PN,該框架利用動(dòng)態(tài)記憶網(wǎng)絡(luò)不僅可以為事件類型學(xué)習(xí)更好的原型,還可以為事件描述文本生成更健壯的句子編碼;
(3)實(shí)驗(yàn)表明,與記憶機(jī)制集成的原型網(wǎng)絡(luò)的性能優(yōu)于一系列的傳統(tǒng)模型,特別是當(dāng)事件類型的種類相對(duì)較多且樣本數(shù)量非常少時(shí),這是因?yàn)樗哂袕氖录?shí)例中多次提取上下文信息的能力。
如果對(duì)本文的工作感興趣,歡迎大家閱讀原文,也歡迎大家和我們交流。
?
?
OpenKG
開放知識(shí)圖譜(簡(jiǎn)稱 OpenKG)旨在促進(jìn)中文知識(shí)圖譜數(shù)據(jù)的開放與互聯(lián),促進(jìn)知識(shí)圖譜和語義技術(shù)的普及和廣泛應(yīng)用。
點(diǎn)擊閱讀原文,進(jìn)入 OpenKG 博客。
總結(jié)
以上是生活随笔為你收集整理的论文浅尝 | 基于动态记忆的原型网络进行元学习以实现少样本事件探测的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 论文浅尝 | 基于图注意力的常识对话生成
- 下一篇: 领域应用 | 从数据到智慧,知识图谱如何