图卷积神经网络(part6)--GAT
生活随笔
收集整理的這篇文章主要介紹了
图卷积神经网络(part6)--GAT
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
學習筆記,僅供參考,有錯必究
文章目錄
- GAT
- 核心思想
- 具體步驟
- 使用注意力機制計算節點之間的關聯度
- 利用注意力系數對鄰域節點進行有區別的信息聚合,完成圖卷積操作
- 與其他圖卷積的比較
- 思考
- 舉個例子
GAT
GAT中卷積可定義為利用注意力機制(attention)對鄰域節點有區別的聚合.
- 什么是attention?
注意力機制是一種能讓模型對重要信息重點關注并充分學習吸收的技術,它模仿 了人類觀察物品的方式。核心邏輯就是(從關注全部到關注重點).
核心思想
GAT即GRAPH ATTENTION NETWORKS,其核心思想為將attention引入到圖卷積模型中,利用attention機制來建模鄰域節點與中心節點的關聯度。
作者認為鄰域中所有的節點共享相同卷積核參數會限制模型的能力。因為鄰域內的每一個節
創作挑戰賽新人創作獎勵來咯,堅持創作打卡瓜分現金大獎總結
以上是生活随笔為你收集整理的图卷积神经网络(part6)--GAT的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 横版动作游戏《非常英雄》上线任天堂国行
- 下一篇: 这是要干嘛?理想汽车于张家口成立能源服务