NeurIPS 2020有哪些值得读的「图神经网络」论文?
在碎片化閱讀充斥眼球的時代,越來越少的人會去關注每篇論文背后的探索和思考。在這個欄目里,你會快速 get 每篇精選論文的亮點和痛點,時刻緊跟 AI 前沿成果。如果你也希望讓自己的科研成果被更多人看到,歡迎在后臺回復「論文推薦」。
本期我們篩選了 8?篇 NeurIPS 2020「圖神經網絡」領域的最新論文,一起來看看讀過這些論文的推薦人的推薦理由與個人評價吧!
本期推薦人:紀厚業,北京郵電大學 DMGroup 在讀博士生,主要研究方向為異質圖分析,圖表示學習(圖神經網絡)和推薦系統。
01
GNN在異質性圖上的局限性
論文標題:Beyond Homophily in Graph Neural Networks: Current Limitations and Effective Designs
論文作者:Jiong Zhu / Yujun Yan / Lingxiao Zhao / Mark Heimann / Leman Akoglu / Danai Koutra
論文來源:NeurIPS 2020
論文鏈接:http://www.paperweekly.site/papers/4732
這是一篇較為基礎的 GNN 文章,主要分析了 GNN 在異質性較強(同質性較弱)的圖數據上的局限性。異質性指的是相連的節點的標簽有大量不同的標簽或者不相似的特征。在這樣的圖數據上,現有的 GNN 泛化性很差甚至比不過 MLP。?
受上述現象啟發,作者提出了一個核心設計:ego Embedding 和 neighbor Embedding 的分離,這強化在異質性圖上結構學習的能力。基于上述設計,一種更為強大的 GNN H2GCN 被提出,并取得了非常夸張的提升(提升幅度高達 40% 和 27%)。在同質性數據上,H2GCN 的效果也非常好。本文最大的貢獻是分析了現有 GNN 在異質性強的圖數據集上的局限性,這對于一大類圖挖掘都是很有啟發意義的。
02
異質圖表示學習
論文標題:Self-supervised Auxiliary Learning with Meta-paths for Heterogeneous Graphs
論文作者:Dasol Hwang / Jinyoung Park / Sunyoung Kwon / Kyung-Min Kim / Jung-Woo Ha / Hyunwoo J. Kim
論文來源:NeurIPS 2020
論文鏈接:http://www.paperweekly.site/papers/4731
代碼鏈接:https://github.com/mlvlab/SELAR
這是一篇圖上自監督學習的論文。GNN 作為一種圖表示學習算法而廣為人知。最近,一些工作發現表示學習可以通過一些輔助任務進一步提升。但是,異質圖表示學習的輔助任務很少被探索。?
為了彌補上述空白,本文探索了如何基于元路徑來實現異質圖表示學習的增強。元路徑是一種關系序列,可以捕獲多種豐富語義。作者將元路徑預測作為輔助任務,這實際上是一種元學習技術。?最后,大量的實驗驗證了元路徑輔助學習可以帶來大量的效果提升,尤其是在鏈路預測任務上。
03
圖池化技術
論文標題:Rethinking pooling in graph neural networks
論文作者:Diego Mesquita / Amauri H. Souza / Samuel Kaski
論文來源:NeurIPS 2020
論文鏈接:http://www.paperweekly.site/papers/4729
代碼鏈接:https://github.com/AaltoPML/Rethinking-pooling-in-GNNs
本文不是一篇常規的堆模型的文章。作者深入反思了現有的圖池化技術。在圖神經網絡領域,各種圖卷積技術得到廣泛的研究,而圖池化的相關技術則相對較少。盡管有一些圖池化的工作 DiffPool 聲稱可以取得非常好的效果,但是在作者的深入分析之后并不認同。
具體來說,作者在能夠保持局部結構的代表性 GNN 上,以隨機或者聚類的方式進行了實驗。驚人的是,兩者的表現并不會有明顯差異。為了理解上述現象,作者分析了卷積層和池化層之間的內部交互,然后發現:卷積層實際主導了表示學習過程,而池化層并沒有做出足夠的貢獻。
04
圖對比學習
論文標題:Graph Contrastive Learning with Augmentations
論文作者:Yuning You / Tianlong Chen / Yongduo Sui / Ting Chen / Zhangyang Wang / Yang Shen
論文來源:NeurIPS 2020
論文鏈接:http://www.paperweekly.site/papers/4728
代碼鏈接:https://github.com/Shen-Lab/GraphCL
本文是一篇 GNN 自監督學習的文章。如何學習可泛化,可遷移及魯棒的圖表示對于現有的 GNN 仍然是個巨大的挑戰。CNN 和圖像數據上的自監督學習已經得到了廣泛的研究,但是圖上的自監督學習仍很少被探索。
因此,本文設計了一種針對無監督圖表示學習的圖對比學習框架 GraphCL。在該框架下,作者探索了 4 種不同先驗下的圖數據增強方法。考慮到半監督,無監督和遷移等任務,作者在很多數據集上系統的分析了不同圖增強組合的影響。實驗結果表明,作者所設計的 GraphCL 框架能夠取得相似或者更優于 SOTA。
05
圖神經網絡
論文標題:Path Integral Based Convolution and Pooling for Graph Neural Networks
論文作者:Zheng Ma / Junyu Xuan / Yu Guang Wang / Ming Li / Pietro Lio
論文來源:NeurIPS 2020
論文鏈接:http://www.paperweekly.site/papers/4478
代碼鏈接:https://github.com/YuGuangWang/PAN
圖神經網絡擴展了深度學習在圖結構數據上的應用,如圖卷積和圖池化操作。本文借鑒了物理中的一些概念,設計了一種 path integral based graph neural networks (PAN)。
具體來說,PAN 考慮一種新穎的卷積操作,涉及到所有的 path 上消息的 sender 和 receiver,及一種與路徑長度相關的可學習權重(對應于最大熵隨機游走)。PAN 將圖拉普拉斯泛化到一種新的轉移矩陣 maximal entropy transition (MET) matrix。重要的是,MET 矩陣的對角線元素直接和子圖中心性相關,因此提供了一種自然的自適應池化機制。最后,大量的實驗(對比 SOTA)驗證了 PAN 的有效性。
06
無監督學習
論文標題:Erd?s?Goes Neural: an Unsupervised Learning Framework for Combinatorial Optimization on Graphs
論文作者:Nikolaos Karalias / Andreas Loukas
論文來源:NeurIPS 2020
論文鏈接:http://www.paperweekly.site/papers/4476
本文出自 EPFL 的大佬 Andreas Loukas 之手。眾所周知,利用神經網絡來求解組合優化問題是非常具有挑戰性的一件事,這主要是因為缺少標簽數據。本文巧妙地設計了一種圖上無監督的框架用于組合優化問題,能夠在保證質量的情況下提供完整的解。
受 Erd?s probabilistic method 的啟發,作者用神經網絡去參數化一個概率分布。只要選取了適當的損失函數,神經網絡可以學習到一個滿足組合優化約束的分布,然后可以將其映射為一個期望的解。最后,作者在最大圖和局部圖聚類上驗證了解的效果。
07
圖元學習
論文標題:Graph Meta Learning via Local Subgraphs
論文作者:Kexin Huang / Marinka Zitnik
論文來源:NeurIPS 2020
論文鏈接:http://www.paperweekly.site/papers/4445
代碼鏈接:https://github.com/mims-harvard/G-Meta
本文來自 Harvard 大佬 Kexin Huang。現在主流的 GNN 需要大量標簽信息或者邊信息來進行學習。當進行新任務學習的數據較為稀疏時,元學習 meta learning 可以從之前學習總結的經驗從快速的挑戰適配到新任務上。
因此,本文提出了 G-Meta,一種針對圖數據的元學習框架。G-Meta 利用子圖結構來遷移特定的子圖信息,使得模型可以利用元梯度 meta gradient 更快的進行本質知識的學習。作者也對 G-Meta 進行一些理論分析,因此 G-Meta 的表現也有有理論保證的。最后,作者做了大量的實驗來驗證 G-Meta 的有效性(7 個數據集和 9 個對比方法)。
08
圖神經網絡架構
論文標題:Principal Neighbourhood Aggregation for Graph Nets
論文作者:Gabriele Corso / Luca Cavalleri / Dominique Beaini / Pietro Liò / Petar Veli?kovi?
論文鏈接:http://www.paperweekly.site/papers/4448
代碼鏈接:https://github.com/lukecavabarrett/pna
本文是 GAT 一作大佬 Petar 和劍橋大學強強聯手的一篇文章。各種各樣的 GNN 架構及其表達能力分析的文章已經很多了,但是他們主要在分析同構任務和可數特征空間。
本文對現有的理論框架進行了擴展,其實能夠處理聯系特征,這在真實世界的數據是非常常見的。同時,作者提出了 Principal Neighbourhood Aggregation (PNA),一種考慮了 degree 的全新的 GNN 聚合器(泛化了現有的求和聚合器)。作者通過一些圖例形象的解釋了現有的各種聚合器的表示能力及其缺陷。最后,作者在基于經典的圖論設計了很多全新的 benchmark,在多個數據集上驗證了 PNA 的有效性。
更多閱讀
????
現在,在「知乎」也能找到我們了
進入知乎首頁搜索「PaperWeekly」
點擊「關注」訂閱我們的專欄吧
關于PaperWeekly
PaperWeekly 是一個推薦、解讀、討論、報道人工智能前沿論文成果的學術平臺。如果你研究或從事 AI 領域,歡迎在公眾號后臺點擊「交流群」,小助手將把你帶入 PaperWeekly 的交流群里。
總結
以上是生活随笔為你收集整理的NeurIPS 2020有哪些值得读的「图神经网络」论文?的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: AAAI 2021 | 上海交大提出基于
- 下一篇: 云南省刘正芬名字有多少