图神经网络|图注意网络Graph Attention Network

图注意网络Graph Attention Network

Leaky ReLU 有利于压低负数对结局的影响。

图注意网络Graph Attention Network的流程

输入向量 h i h_i hi乘上权重矩阵W得到对应的向量 h i ∗ h_i^* hi∗,并将 h i ∗ h_i^* hi∗计算出对应的 a i a_i ai,从而得到最终对结果向量的贡献。

所以有 h = ∑ i h i ∗ ∗ a i h = \sum_i{h_i^{*}*a_i} h=∑ihi∗∗ai

相关推荐
weixin_3875456411 分钟前
深入解析 AI Gateway:新一代智能流量控制中枢
人工智能·gateway
聽雨23728 分钟前
03每日简报20250705
人工智能·社交电子·娱乐·传媒·媒体
二川bro1 小时前
飞算智造JavaAI:智能编程革命——AI重构Java开发新范式
java·人工智能·重构
acstdm1 小时前
DAY 48 CBAM注意力
人工智能·深度学习·机器学习
澪-sl1 小时前
基于CNN的人脸关键点检测
人工智能·深度学习·神经网络·计算机视觉·cnn·视觉检测·卷积神经网络
羊小猪~~1 小时前
数据库学习笔记(十七)--触发器的使用
数据库·人工智能·后端·sql·深度学习·mysql·考研
摸爬滚打李上进2 小时前
重生学AI第十六集:线性层nn.Linear
人工智能·pytorch·python·神经网络·机器学习
HuashuiMu花水木2 小时前
PyTorch笔记1----------Tensor(张量):基本概念、创建、属性、算数运算
人工智能·pytorch·笔记
lishaoan772 小时前
使用tensorflow的线性回归的例子(四)
人工智能·tensorflow·线性回归
AI让世界更懂你2 小时前
【ACL系列论文写作指北15-如何进行reveiw】-公平、公正、公开
人工智能·自然语言处理