论文阅读——RetNet

transformer的问题:计算量大,占用内存大,不好部署。

所以大家在找能解决办法,既能和transformer表现一样好,又能在推理阶段计算复杂度很低。

这些方法大概分类三类:一是代替transformer非线性注意力机制的线性注意力,二是牺牲并行训练,但是推理效率高的循环模型,三是寻找一种其他机制代替注意力机制。但是都不成功。

RetNet整体结构:

X是每层的输入序列,LN是LayerNorm

MSR:multi-scale retention

RetNet是L个单独模块堆叠,每个模块包含MSR和FFN两部分。

考虑循环模型序列建模问题,可以表示为:

其中,Sn是隐层,Vn是输入。

By absorbing A into WQ and WK,把方程写为:

γ简化为标量:

retention layer定义为:

相关推荐
LaughingZhu5 小时前
Product Hunt 每日热榜 | 2025-12-26
人工智能·经验分享·深度学习·神经网络·产品运营
小徐Chao努力5 小时前
【Langchain4j-Java AI开发】08-向量嵌入与向量数据库
java·数据库·人工智能
Coder_Boy_5 小时前
基于SpringAI的智能平台基座开发-(三)
人工智能·springboot·aiops·langchain4j
小徐Chao努力5 小时前
【Langchain4j-Java AI开发】07-RAG 检索增强生成
java·人工智能·python
360智汇云6 小时前
存储压缩:不是“挤水分”,而是让数据“轻装上阵
大数据·人工智能
小熊熊知识库6 小时前
AI架构详解以及免费AI如何薅
人工智能·python·ai使用
咚咚王者6 小时前
人工智能之数学基础 信息论:第二章 核心度量
人工智能
Trent19856 小时前
影楼精修-眼镜祛反光算法详解
图像处理·人工智能·算法·计算机视觉·aigc
吾在学习路7 小时前
【CVPR 2018最佳论文】Squeeze-and-Excitation Networks
人工智能·深度学习·神经网络·机器学习