天天看點

Graph attention networks

ICLR 2018

最近在學習圖卷積網絡。調研一些文章吧。

這篇文章不是GCN,是GAT

輸入是N個結點特征h,輸出是新的N個特征h'。這個過程至少需要一個權重矩陣W來轉移。這裡W是所喲結點共享的。這樣的共享的結果肯定不是最優的,是以加上self-attention,為每個相鄰節點到中心節點的轉移設定獨特的權重:

Graph attention networks
Graph attention networks

這裡Ni是i節點的鄰接點集合。aij就是上述獨特的權重,其實就是鄰接點對中心點的重要性

文中還提到多頭注意力機制更優:

Graph attention networks

K是注意力機制數目。||是concat操作。

當然最後一層不能concat了,要求均值。

繼續閱讀