图神经网络|图注意网络Graph Attention Network

图注意网络Graph Attention Network

Leaky ReLU 有利于压低负数对结局的影响。

图注意网络Graph Attention Network的流程

输入向量 h i h_i hi乘上权重矩阵W得到对应的向量 h i ∗ h_i^* hi∗,并将 h i ∗ h_i^* hi∗计算出对应的 a i a_i ai,从而得到最终对结果向量的贡献。

所以有 h = ∑ i h i ∗ ∗ a i h = \sum_i{h_i^{*}*a_i} h=∑ihi∗∗ai

相关推荐
梦雨羊5 分钟前
【持续更新中】transformer详解和embedding大模型
深度学习·transformer·embedding
AnRan080817 分钟前
ChatGPT如何赋能办公
人工智能·chatgpt
量子位29 分钟前
陈丹琦团队降本大法又来了:数据砍掉三分之一,性能却完全不减
人工智能·llm
IT古董39 分钟前
【机器学习】机器学习的基本分类-自监督学习(Self-supervised Learning)
人工智能·学习·机器学习·分类
鸟哥大大1 小时前
Seed-TTS: A Family of High-Quality Versatile Speech Generation Models
人工智能·深度学习·机器学习·aigc·语音识别
是十一月末2 小时前
Opencv查找、绘制轮廓、圆形矩形轮廓和近似轮廓
人工智能·python·opencv·计算机视觉
机器懒得学习2 小时前
基于人脸识别和 MySQL 的考勤管理系统实现
数据库·人工智能·python·科技·mysql
格林威2 小时前
Baumer工业相机堡盟LXT工业相机如何升级固件使得相机具有RDMA功能
人工智能·数码相机·算法·计算机视觉·c#
小墙程序员2 小时前
人工智能的发展概述
人工智能