论文阅读——RetNet

transformer的问题:计算量大,占用内存大,不好部署。

所以大家在找能解决办法,既能和transformer表现一样好,又能在推理阶段计算复杂度很低。

这些方法大概分类三类:一是代替transformer非线性注意力机制的线性注意力,二是牺牲并行训练,但是推理效率高的循环模型,三是寻找一种其他机制代替注意力机制。但是都不成功。

RetNet整体结构:

X是每层的输入序列,LN是LayerNorm

MSR:multi-scale retention

RetNet是L个单独模块堆叠,每个模块包含MSR和FFN两部分。

考虑循环模型序列建模问题,可以表示为:

其中,Sn是隐层,Vn是输入。

By absorbing A into WQ and WK,把方程写为:

γ简化为标量:

retention layer定义为:

相关推荐
skywalk81632 分钟前
Windows下安装编译安装Whisper-CPP:一个语音实现框架集和高性能推理模型
人工智能·windows·whisper
Spliceㅤ3 分钟前
Product-classify-bert项目
人工智能·深度学习·bert
Old Uncle Tom3 分钟前
Claude Code 上下文压缩分析
人工智能·ai·agent
Apache IoTDB3 分钟前
【应用案例】电价“先知”!IoTDB 结合 AI 能力,实现电价精准预测
人工智能·iotdb
weixin_416660074 分钟前
2026 年 AI 对话转 Word 工具分析:Pandoc、Typora、aitoword 怎么选
人工智能·word
前端不太难7 分钟前
深度解析:OpenClaw 多智能体系统四大支柱
人工智能·状态模式·openclaw
newbe3652412 分钟前
Design.md:让 AI 一致性进行前端 UI 设计的解决方案
前端·人工智能·ui
摇滚侠13 分钟前
从 Vibe Coding 到 Spec Coding:研发范式演进与高质量交付
java·人工智能·ai编程
无限大.14 分钟前
数字生存05:在AI时代,如何保持学习能力,不断成长
人工智能·学习