论文阅读——RetNet

transformer的问题:计算量大,占用内存大,不好部署。

所以大家在找能解决办法,既能和transformer表现一样好,又能在推理阶段计算复杂度很低。

这些方法大概分类三类:一是代替transformer非线性注意力机制的线性注意力,二是牺牲并行训练,但是推理效率高的循环模型,三是寻找一种其他机制代替注意力机制。但是都不成功。

RetNet整体结构:

X是每层的输入序列,LN是LayerNorm

MSR:multi-scale retention

RetNet是L个单独模块堆叠,每个模块包含MSR和FFN两部分。

考虑循环模型序列建模问题,可以表示为:

其中,Sn是隐层,Vn是输入。

By absorbing A into WQ and WK,把方程写为:

γ简化为标量:

retention layer定义为:

相关推荐
minhuan7 分钟前
大模型应用:多卡集群跑满14B模型:大模型推理算力应用实践.66
人工智能
golang学习记13 分钟前
VS Code 发布新终端
人工智能
无忧智库31 分钟前
未来已来:深度解析城市空中交通(UAM)垂直起降场(Vertiport)智能化配套设施建设方案(WORD)
人工智能
叫我:松哥32 分钟前
基于python强化学习的自主迷宫求解,集成迷宫生成、智能体训练、模型评估等
开发语言·人工智能·python·机器学习·pygame
2501_9449347335 分钟前
大专学历行政转型管理的必要性分析
人工智能
安全二次方security²42 分钟前
CUDA C++编程指南(7.5&6)——C++语言扩展之内存栅栏函数和同步函数
c++·人工智能·nvidia·cuda·内存栅栏函数·同步函数·syncthreads
汗流浃背了吧,老弟!1 小时前
构建RAG系统时,如何选择合适的嵌入模型(Embedding Model)?
人工智能·python·embedding
老蒋每日coding1 小时前
从存证到智能:当碳链架构注入AI灵魂——区块链+AI融合新范式
人工智能·区块链
DN20201 小时前
靠谱的AI销售机器人哪家好
java·人工智能·机器人
菜鸟‍1 小时前
【论文学习】重新审视面向持续图像分割的基于查询的 Transformer || 用于二分类图像分割的多视图聚合网络
人工智能·学习·计算机视觉