论文阅读 | NIPS‘20 | Beta Embeddings for Multi-Hop Logical Reasoning in Knowledge Graphs
很有意思的一篇paper。在眾多Knowledge Graph Embedding (KGE) 的論文中通過問題設(shè)計和有意思的解決方式脫穎而出。
首先來看看問題設(shè)計。
一般的KGE model都是利用神經(jīng)網(wǎng)絡(luò)(大部分是GCN)做點(node)或者邊(edge)的低維向量表示,將他們嵌入(embed)到一個低維向量空間的同時盡可能保持他的特征和性質(zhì)。比如LINE、TransX系列、GraphSAGE、GCN等模型,通常是利用了圖結(jié)構(gòu)信息,讓接近的邊的表示盡可能相似,以此作為學(xué)習(xí)的目標(biāo)。
但這篇paper著眼于multi-hop的embedding場景,用logic rule作為guidance進(jìn)行學(xué)習(xí)。完美地結(jié)合了KGE models和logic rule所蘊含的邏輯信息。
其次,是問題的解決方式。
這篇paper使用了beta embedding來對點的存在與否進(jìn)行建模,進(jìn)行了一個相對嚴(yán)格的distribution的假設(shè)。其次,通過beta embedding這個伯努利分布的進(jìn)階版,能夠很好地擬合logic rule的PSL。
從實驗上來看也能吊打很多SOTA models,感覺很有意思,可以試一試。
總結(jié)
以上是生活随笔為你收集整理的论文阅读 | NIPS‘20 | Beta Embeddings for Multi-Hop Logical Reasoning in Knowledge Graphs的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: JAVA2d用于,创建用于翻转效果的 J
- 下一篇: 高通、低通、带通 三种滤波器的工作原理