论文笔记之Graph Attention Networks

论文笔记之Graph Attention Networks 一、本文贡献 提出了图注意力网络,利用屏蔽的自注意层来解决基于图卷积的一些缺点。 注意力机制允许处理不同大小的输入,通过关注输入中最相关的部分来进行决策。 该机制可以隐式地给邻域中不同节点指定不同的权重,而不需要高代价的矩阵运算或预先知道图的结构。 二、模型分析 GAT层输入: 具体过程 为了将输入特征转换为更高层次的特征,因此对每个节点
相关文章
相关标签/搜索