论文阅读——RetNet

transformer的问题:计算量大,占用内存大,不好部署。

所以大家在找能解决办法,既能和transformer表现一样好,又能在推理阶段计算复杂度很低。

这些方法大概分类三类:一是代替transformer非线性注意力机制的线性注意力,二是牺牲并行训练,但是推理效率高的循环模型,三是寻找一种其他机制代替注意力机制。但是都不成功。

RetNet整体结构:

X是每层的输入序列,LN是LayerNorm

MSR:multi-scale retention

RetNet是L个单独模块堆叠,每个模块包含MSR和FFN两部分。

考虑循环模型序列建模问题,可以表示为:

其中,Sn是隐层,Vn是输入。

By absorbing A into WQ and WK,把方程写为:

γ简化为标量:

retention layer定义为:

相关推荐
walnut_oyb6 分钟前
arXiv|SARLANG-1M:用于 SAR 图像理解的视觉-语言建模基准
论文阅读·人工智能·机器学习·计算机视觉·语言模型·自然语言处理
GOTXX11 分钟前
CANN特性能力深度解析:释放AI计算潜能
人工智能
jinxinyuuuus25 分钟前
Info Flow:分布式信息采集、数据去重与内容分级的工程实现
人工智能·分布式·程序人生·生活
IT_陈寒29 分钟前
Spring Boot 3.2 性能翻倍秘诀:这5个配置优化让你的应用起飞🚀
前端·人工智能·后端
5***790030 分钟前
MCP在边缘计算中的应用场景
人工智能·边缘计算
Tezign_space34 分钟前
技术破局:人机协作如何重构内容生产流水线,实现成本与效能的范式转移
人工智能·重构·降本增效·人机协作·内容数字化·内容科技·内容+人工智能
小毅&Nora42 分钟前
【人工智能】人工智能发展历程全景解析:从图灵测试到大模型时代(含CNN、Q-Learning深度实践)
人工智能·cnn·q-learning
人工智能技术咨询.1 小时前
具身智能-普通LLM智能体与具身智能:从语言理解到自主行动
人工智能·transformer
Mintopia1 小时前
🧭 Claude Code 用户工作区最佳实践指南
前端·人工智能·claude
Caven771 小时前
【2025版李宏毅机器学习系列课程】CH2 机器学习 Training Guide
人工智能·机器学习