论文浅尝 | 基于神经网络的推理(DeepMind Relational Reasoning)
本文轉(zhuǎn)載自公眾號(hào):徐阿衡。
? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ??
論文:A simple neural network module for relational reasoning(2017)
github代碼:?https://github.com/siddk/relation-network
這篇回顧下 DeepMind 2017 年發(fā)表的關(guān)系推理方面的工作,Relational Networks(RNs)。
關(guān)系推理的傳統(tǒng)方法有基于符號(hào)的方法(symbolic approaches)和基于統(tǒng)計(jì)的方法(statistical learning)。基于符號(hào)的方法存在著 symbol grounding 的問(wèn)題,在小任務(wù)(small task)和輸入變化(input variations)的問(wèn)題上也不夠魯棒,學(xué)習(xí)能力不強(qiáng);而基于統(tǒng)計(jì)的方法像深度學(xué)習(xí),雖然泛化能力強(qiáng),但是對(duì)數(shù)據(jù)稀疏但關(guān)系復(fù)雜的問(wèn)題也是束手無(wú)策。DeepMind 2017年出的這篇論文提出的Relation network(RN),是用于關(guān)系推理(relational reasoning)的一個(gè)神經(jīng)網(wǎng)絡(luò)模塊(NN module),能直接加載到已有的神經(jīng)網(wǎng)絡(luò)架構(gòu)中。與 GNN 等網(wǎng)絡(luò)結(jié)構(gòu)相比,更為簡(jiǎn)單和靈活,即插可用(plug-and-play),在一些關(guān)系推理的測(cè)試上的準(zhǔn)確率已經(jīng)超過(guò)了人類。
RN 的網(wǎng)絡(luò)結(jié)構(gòu)是真的很簡(jiǎn)單(不然也不會(huì)說(shuō)是”simple neural network”),以至于通篇下面一個(gè)公式就可以概括,核心就是利用神經(jīng)網(wǎng)絡(luò)來(lái)找出任意 pairwise 對(duì)象之間的潛在關(guān)系。
Inputs:??
MLPs:??
: 使用一個(gè)全連接的神經(jīng)網(wǎng)絡(luò)來(lái)量化 o_i?和 o_j?的關(guān)系,任意兩個(gè)對(duì)象之間的關(guān)系使用同一套參數(shù)
: 考慮所有組合的關(guān)系,相當(dāng)于考慮一個(gè)完全連接圖,在這個(gè)圖上計(jì)算各個(gè)邊的權(quán)重,把重要的關(guān)系凸顯出來(lái),f 函數(shù)就計(jì)算了這個(gè)重要關(guān)系的集合
用在自然語(yǔ)言處理里,就是把每個(gè)句子當(dāng)做一個(gè)對(duì)象,每個(gè)句子與句子的 pair 用 g 計(jì)算關(guān)系,再把所有關(guān)系加權(quán)和放到最終的預(yù)測(cè)網(wǎng)絡(luò)里。
小結(jié)一下,RNs有以下三個(gè)特點(diǎn):
可以學(xué)習(xí)推理。這里 RNs 計(jì)算了所有的兩個(gè)對(duì)象之間的關(guān)系,當(dāng)然也可以只計(jì)算部分兩個(gè)對(duì)象之間的關(guān)系,這里的“部分”需要預(yù)定義
數(shù)據(jù)效率更高(data efficient)。RNs 使用一個(gè) gθ 函數(shù)來(lái)計(jì)算所有的關(guān)系,任意兩個(gè)對(duì)象之間的關(guān)系使用同一套參數(shù),泛化能力更強(qiáng)
作用在一個(gè)集合上。對(duì)輸入和輸出都是與順序無(wú)關(guān)的(input/output invariation)
簡(jiǎn)單提一下和 NLP 有關(guān)的任務(wù)。
RN 在 VQA 任務(wù)上的結(jié)構(gòu)也很簡(jiǎn)單,CNN 處理圖像,LSTM 編碼 question,然后兩兩配對(duì)的 spatial cell(紅藍(lán);黃紅;藍(lán)黃…)和 question embedding 拼接,后面接幾個(gè) FC 層,最后 softmax 得到某個(gè) answer word。
Word-embedding: dim32; LSTM: dim128
: 4-layer MLP, dim256-256-256, RELU
: 3-layer MLP, dim256-256-29, RELU
: 綜合所有組合?,implicitly 提取有用的組合預(yù)測(cè)最終答案
RN 在 bAbI 測(cè)試集上的結(jié)構(gòu),每個(gè)問(wèn)題之前的最多 20個(gè)句子作為 support set,使用 LSTM-dim32 把 support set 連同每個(gè)句子在 set 里的相對(duì)位置編碼轉(zhuǎn)化為 RN 的 object set,同時(shí)使用另一個(gè) LSTM-dim32 的 encoding state 表示問(wèn)題。
: 4-layer MLP, dim256-256-256-256
: 3-layer MLP, dim 256-512-159
在 joint training 也就是 20 個(gè)任務(wù)一起訓(xùn)練一個(gè) QA 模型的情況下,通過(guò)了 18/20 bAbI test。與 DNC 比較發(fā)現(xiàn),DNC 在 path finding 任務(wù)上表現(xiàn)不錯(cuò),但在 basic induction 上誤差達(dá)到 55.1%,而 RN 達(dá)到了 2.1% 的誤差水平。
OpenKG.CN
中文開放知識(shí)圖譜(簡(jiǎn)稱OpenKG.CN)旨在促進(jìn)中文知識(shí)圖譜數(shù)據(jù)的開放與互聯(lián),促進(jìn)知識(shí)圖譜和語(yǔ)義技術(shù)的普及和廣泛應(yīng)用。
點(diǎn)擊閱讀原文,進(jìn)入 OpenKG 博客。
總結(jié)
以上是生活随笔為你收集整理的论文浅尝 | 基于神经网络的推理(DeepMind Relational Reasoning)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 论文浅尝 | 「知识图谱」领域近期值得读
- 下一篇: 科普 | “开放知识”的定义