论文阅读——RetNet

transformer的问题:计算量大,占用内存大,不好部署。

所以大家在找能解决办法,既能和transformer表现一样好,又能在推理阶段计算复杂度很低。

这些方法大概分类三类:一是代替transformer非线性注意力机制的线性注意力,二是牺牲并行训练,但是推理效率高的循环模型,三是寻找一种其他机制代替注意力机制。但是都不成功。

RetNet整体结构:

X是每层的输入序列,LN是LayerNorm

MSR:multi-scale retention

RetNet是L个单独模块堆叠,每个模块包含MSR和FFN两部分。

考虑循环模型序列建模问题,可以表示为:

其中,Sn是隐层,Vn是输入。

By absorbing A into WQ and WK,把方程写为:

γ简化为标量:

retention layer定义为:

相关推荐
njsgcs几秒前
我要让ai理解3d模型,什么孔面是装轴承,什么面是攻牙孔,什么面是轴面,区分从动轮主动轮
人工智能
猫头_几秒前
RAG 全链路深度拆解:“大白”学习RAG的极简指南
人工智能·langchain·llm
灰化肥发挥1 分钟前
韩国草药制剂数据查询:如何获取MFDS注册数据与韩国药典标准?
大数据·人工智能·医药数据库
小王毕业啦4 分钟前
2010-2023年 地级市-破产法庭设立数据(+文献)
大数据·人工智能·数据挖掘·数据分析·社科数据·经管数据·破产法庭
一只川页21 分钟前
从“对话”到“实干”:大模型应用架构演进全景解析
人工智能·架构
雷焰财经22 分钟前
从系统承建到生态赋能:宇信科技全球化战略的纵深与逻辑
大数据·人工智能·科技
阿_旭23 分钟前
基于YOLO26深度学习的风力机缺陷检测与语音提示系统【python源码+Pyqt5界面+数据集+训练代码】
人工智能·python·深度学习·风力机缺陷检测
共绩算力29 分钟前
海贼王 Pop-Up Book 风格AI生图提示词指南
人工智能·共绩算力
沪漂阿龙31 分钟前
大模型最后一步关键训练:偏好调优,让AI更懂人心
人工智能
程序员Sunday34 分钟前
5000 字长文,全网最细的OpenClaw(小龙虾)架构拆解,我建议你认真看完
前端·人工智能