《GRAPH ATTENTION NETWORKS》论文理解

0.动机 为邻域内的不同节点指定不同的权重,而不需要任何复杂的矩阵操作(比如求逆),也不需要预先了解图的结构。 1. 图注意力层 输入为节点特征 h = { h ⃗ 1 , . . . , h ⃗ N } , h ⃗ i ∈ R F h=\{\vec{h}_1,...,\vec{h}_N\},\vec{h}_i\in R^F h={h 1​,...,h N​},h i​∈RF, N N N表示节点
相关文章
相关标签/搜索