图神经网络|图注意网络Graph Attention Network

图注意网络Graph Attention Network

Leaky ReLU 有利于压低负数对结局的影响。

图注意网络Graph Attention Network的流程

输入向量 h i h_i hi乘上权重矩阵W得到对应的向量 h i ∗ h_i^* hi∗,并将 h i ∗ h_i^* hi∗计算出对应的 a i a_i ai,从而得到最终对结果向量的贡献。

所以有 h = ∑ i h i ∗ ∗ a i h = \sum_i{h_i^{*}*a_i} h=∑ihi∗∗ai

相关推荐
式5163 分钟前
大模型学习基础(九)LoRA微调原理
人工智能·深度学习·学习
CCPC不拿奖不改名5 分钟前
python基础面试编程题汇总+个人练习(入门+结构+函数+面向对象编程)--需要自取
开发语言·人工智能·python·学习·自然语言处理·面试·职场和发展
菜鸟‍6 分钟前
【论文学习】一种用于医学图像分割单源域泛化的混合双增强约束框架 || 视觉 Transformer 在通用图像分割中的 “缺失环节”
人工智能·深度学习·计算机视觉
五度易链-区域产业数字化管理平台7 分钟前
数观丨2026年半导体集成电路产业融资分析
大数据·人工智能
应用市场7 分钟前
机器学习中的正向反馈循环:从原理到实战应用
人工智能·深度学习·机器学习
深度学习实战训练营25 分钟前
基于Transformer的无人机对地突防轨迹预测方法研究【k学长深度学习宝库】
深度学习·transformer·无人机
Allen正心正念202530 分钟前
GGUF/GPTQ/AWQ模型对比
人工智能
Coder_Boy_31 分钟前
基于SpringAI的在线考试系统-知识点管理模块完整优化方案
java·前端·人工智能·spring boot
Godspeed Zhao32 分钟前
从零开始学AI3——背景知识2
人工智能
康康的AI博客35 分钟前
多模态大一统:从GPT-4突破到AI领域质的飞跃之路
人工智能·ai