论文阅读——RetNet

transformer的问题:计算量大,占用内存大,不好部署。

所以大家在找能解决办法,既能和transformer表现一样好,又能在推理阶段计算复杂度很低。

这些方法大概分类三类:一是代替transformer非线性注意力机制的线性注意力,二是牺牲并行训练,但是推理效率高的循环模型,三是寻找一种其他机制代替注意力机制。但是都不成功。

RetNet整体结构:

X是每层的输入序列,LN是LayerNorm

MSR:multi-scale retention

RetNet是L个单独模块堆叠,每个模块包含MSR和FFN两部分。

考虑循环模型序列建模问题,可以表示为:

其中,Sn是隐层,Vn是输入。

By absorbing A into WQ and WK,把方程写为:

γ简化为标量:

retention layer定义为:

相关推荐
月巴月巴白勺合鸟月半9 分钟前
FHIR 的使用
人工智能·c#·fhir
小吴同学·10 分钟前
吴恩达机器学习下:二分类问题、逻辑回归、过拟合问题
人工智能·机器学习
程序员Shawn13 分钟前
【机器学习 | 第四篇】- 逻辑回归
人工智能·机器学习·逻辑回归
tyler_download14 分钟前
揉扁搓圆Transformer架构: 激活函数说明
人工智能·深度学习·transformer
HarryPoint20 分钟前
Claude Code Auto Mode:不用点"同意",也能保证安全
人工智能
孤烟21 分钟前
伯克利研究:AI 未减负反加压,77% 职场人工作量飙升
人工智能·ai编程
jinanwuhuaguo30 分钟前
OpenClaw全网使用人群全景深度分析报告
网络·人工智能·网络协议·rpc·openclaw
踩着两条虫32 分钟前
AI驱动的Vue3应用开发平台 深入探究(十四):扩展与定制之插件系统开发指南
vue.js·人工智能·低代码·重构·架构
spider'44 分钟前
ROS2开发环境搭建
人工智能
Yiyaoshujuku1 小时前
医院API接口,从医院真实世界数据HIS、LJS、EMR、PACS系统到医院药品流向数据....
大数据·前端·人工智能