论文阅读——RetNet

transformer的问题:计算量大,占用内存大,不好部署。

所以大家在找能解决办法,既能和transformer表现一样好,又能在推理阶段计算复杂度很低。

这些方法大概分类三类:一是代替transformer非线性注意力机制的线性注意力,二是牺牲并行训练,但是推理效率高的循环模型,三是寻找一种其他机制代替注意力机制。但是都不成功。

RetNet整体结构:

X是每层的输入序列,LN是LayerNorm

MSR:multi-scale retention

RetNet是L个单独模块堆叠,每个模块包含MSR和FFN两部分。

考虑循环模型序列建模问题,可以表示为:

其中,Sn是隐层,Vn是输入。

By absorbing A into WQ and WK,把方程写为:

γ简化为标量:

retention layer定义为:

相关推荐
ZhengEnCi13 小时前
01c-LSTM与GRU门控机制详解
人工智能
科技林总13 小时前
自然语言处理任务分类
人工智能·自然语言处理
谈思汽车13 小时前
当 AI 走进工厂与家庭:谁来保护AIoT 的“最后一米”?
人工智能·物联网·智能家居·健康医疗
IT_陈寒13 小时前
React状态更新那点事儿,我掉坑里爬了半天
前端·人工智能·后端
Raink老师13 小时前
【AI面试临阵磨枪】LLM 推理优化技术:量化、蒸馏、稀疏注意力、vLLM、TGI 核心思想。
人工智能·ai 面试
睡觉吧狗命最最最重要13 小时前
java开发的最优转型路径
人工智能
_小雨林13 小时前
(UPDATING)LLM微调之实战,SFTTrainer官方案例、LoRA/QloRA微调案例、Unsloth、分布式训练、LLaMA Factory
人工智能·深度学习
道可云13 小时前
道可云人工智能&OPC每日资讯|全国首份人工智能开源生态共识在广州发布
人工智能·开源
Cosolar14 小时前
Agent Skills 深度解析:AI 编码代理的工程化生产级工作流引擎
人工智能·面试·开源
大模型真好玩14 小时前
LangChain DeepAgents 速通指南(七)—— DeepAgents使用Agent Skill
人工智能·langchain·deepseek