论文阅读——RetNet

transformer的问题:计算量大,占用内存大,不好部署。

所以大家在找能解决办法,既能和transformer表现一样好,又能在推理阶段计算复杂度很低。

这些方法大概分类三类:一是代替transformer非线性注意力机制的线性注意力,二是牺牲并行训练,但是推理效率高的循环模型,三是寻找一种其他机制代替注意力机制。但是都不成功。

RetNet整体结构:

X是每层的输入序列,LN是LayerNorm

MSR:multi-scale retention

RetNet是L个单独模块堆叠,每个模块包含MSR和FFN两部分。

考虑循环模型序列建模问题,可以表示为:

其中,Sn是隐层,Vn是输入。

By absorbing A into WQ and WK,把方程写为:

γ简化为标量:

retention layer定义为:

相关推荐
Anastasiozzzz37 分钟前
深入研究RAG: 在线阶段-查询&问答
数据库·人工智能·ai·embedding
tq108639 分钟前
资本主义的时间贴现危机:AI时代的结构性淘汰机制
人工智能
砍材农夫39 分钟前
spring-ai 第四多模态API
java·人工智能·spring
土豆12504 小时前
LangGraph TypeScript 版入门与实践
人工智能·llm
土豆12504 小时前
OpenSpec:让 AI 编码助手从"乱猜"到"照单执行"
人工智能·llm
Thomas.Sir4 小时前
第二章:LlamaIndex 的基本概念
人工智能·python·ai·llama·llamaindex
m0_694845574 小时前
Dify部署教程:从AI原型到生产系统的一站式方案
服务器·人工智能·python·数据分析·开源
LS_learner4 小时前
VS Code 终端默认配置从 PowerShell 改为 CMD
人工智能
小毅&Nora5 小时前
【人工智能】【大模型】大模型“全家桶”到“精兵简政”:企业AI落地的理性进化之路
人工智能·大模型·平安科技
KaneLogger5 小时前
如何把AI方面的先发优势转化为结构优势
人工智能·程序员·架构