【论文复现】Graph Attention Networks图注意力神经网络这篇论文提出的核心方法就是在计算一个节点的输出的时候考虑与其相邻的节点对当前节点的影响,同时也将节点对自己的影响考虑在内,为了方便后续解释中将Graph Attention Networks简化成GAT来表述,阅读原版论文有困难可以看一下Aleksa大神录制的讲解视频辅助理解,我在看完视频以后对第多头注意力下的结果输出部分茅塞顿开,同时对自己看论文的时候的一些理解也更加深刻了;另外还有B站上的GAT代码讲解视频的讲解很详细,相比于pytorch给出的源码更加容易理解,本次是笔者的论文复现入门,代码部分采用