论文阅读——RetNet

transformer的问题:计算量大,占用内存大,不好部署。

所以大家在找能解决办法,既能和transformer表现一样好,又能在推理阶段计算复杂度很低。

这些方法大概分类三类:一是代替transformer非线性注意力机制的线性注意力,二是牺牲并行训练,但是推理效率高的循环模型,三是寻找一种其他机制代替注意力机制。但是都不成功。

RetNet整体结构:

X是每层的输入序列,LN是LayerNorm

MSR:multi-scale retention

RetNet是L个单独模块堆叠,每个模块包含MSR和FFN两部分。

考虑循环模型序列建模问题,可以表示为:

其中,Sn是隐层,Vn是输入。

By absorbing A into WQ and WK,把方程写为:

γ简化为标量:

retention layer定义为:

相关推荐
驭白.几秒前
从订单到行驶:构建新能源汽车产品全生命周期数据链
人工智能·汽车·制造·数字化·制造业·新能源汽车
Watermelo6175 分钟前
探究TOON的价值边界:比JSON更优的大模型友好数据格式?
数据结构·人工智能·语言模型·自然语言处理·数据挖掘·数据分析·json
模型启动机6 分钟前
DeepSeek-OCR是「长文本理解」未来方向?中科院新基准VTCBench给出答案
人工智能·ai·大模型·ocr
德育处主任Pro8 分钟前
『n8n』环境搭建
人工智能·aigc·n8n
GIS学姐嘉欣8 分钟前
新中地GIS开发校企联合实训 | 山东理工大学优秀作品(1)广州市智慧城市监测平台
人工智能·智慧城市
我是宝库9 分钟前
Turnitin系统查英文论文AI率,准吗?
人工智能·论文ai率·turnitin系统·英文查重·aigc检测·英文ai率·英文查ai率
知乎的哥廷根数学学派10 分钟前
基于高阶统计量引导的小波自适应块阈值地震信号降噪算法(MATLAB)
网络·人工智能·pytorch·深度学习·算法·机器学习·matlab
墨北小七11 分钟前
CNN深度学习模型在小说创作领域的应用
人工智能·深度学习·cnn
marteker12 分钟前
当人工智能代理成为消费者
人工智能·搜索引擎·百度
Yeats_Liao16 分钟前
昇腾910B与DeepSeek:国产算力与开源模型的架构适配分析
人工智能·python·深度学习·神经网络·机器学习·架构·开源