论文阅读——RetNet

transformer的问题:计算量大,占用内存大,不好部署。

所以大家在找能解决办法,既能和transformer表现一样好,又能在推理阶段计算复杂度很低。

这些方法大概分类三类:一是代替transformer非线性注意力机制的线性注意力,二是牺牲并行训练,但是推理效率高的循环模型,三是寻找一种其他机制代替注意力机制。但是都不成功。

RetNet整体结构:

X是每层的输入序列,LN是LayerNorm

MSR:multi-scale retention

RetNet是L个单独模块堆叠,每个模块包含MSR和FFN两部分。

考虑循环模型序列建模问题,可以表示为:

其中,Sn是隐层,Vn是输入。

By absorbing A into WQ and WK,把方程写为:

γ简化为标量:

retention layer定义为:

相关推荐
marteker3 分钟前
Pinterest发布AI广告“增效秘籍”:全自动工具可降低超10%点击成本
人工智能·搜索引擎
喵叔哟4 分钟前
29_内容生产质量网关Skill:草稿生成+事实校验+发布前检查
网络·人工智能
不开大的凯20778 分钟前
B 端 AI 新图景:阿里悟空的战略价值与爱智能 ATOA 的行业实践
人工智能
码路高手30 分钟前
Trae-Agent中的agent核心控制逻辑
人工智能·架构
云原生指北44 分钟前
Google ADK 深度探索(三):Agent 架构——从单一职责到多智能体协作
人工智能
码路高手1 小时前
Trae-Agent中的tool reflection机制
人工智能·架构
Timer@1 小时前
LangChain 教程 01|概述:AI 应用开发的新范式
人工智能·语言模型·langchain·前端框架
qq_白羊座1 小时前
AI 所处的发展阶段
人工智能
GoCoding1 小时前
Triton 环境
人工智能