论文阅读——RetNet

transformer的问题:计算量大,占用内存大,不好部署。

所以大家在找能解决办法,既能和transformer表现一样好,又能在推理阶段计算复杂度很低。

这些方法大概分类三类:一是代替transformer非线性注意力机制的线性注意力,二是牺牲并行训练,但是推理效率高的循环模型,三是寻找一种其他机制代替注意力机制。但是都不成功。

RetNet整体结构:

X是每层的输入序列,LN是LayerNorm

MSR:multi-scale retention

RetNet是L个单独模块堆叠,每个模块包含MSR和FFN两部分。

考虑循环模型序列建模问题,可以表示为:

其中,Sn是隐层,Vn是输入。

By absorbing A into WQ and WK,把方程写为:

γ简化为标量:

retention layer定义为:

相关推荐
数字时代全景窗30 分钟前
Palantir:两个不确定的问题(1)大模型以上,世界模型未满?
人工智能·软件工程
和沐阳学逆向31 分钟前
断层碾压 Opus!Anthropic 最强模型泄露,代号「卡皮巴拉」
人工智能
Swift社区32 分钟前
鸿蒙游戏里的 AI Agent 设计
人工智能·游戏·harmonyos
剑穗挂着新流苏31235 分钟前
202_深度学习的动力源泉:矩阵微积分与自动求导 (Autograd)
人工智能·pytorch·python·深度学习·神经网络
陆业聪38 分钟前
AI 时代最被低估的工程师技能:把需求写清楚
android·人工智能·aigc
艾莉丝努力练剑41 分钟前
alarm系统调用的一次性原理揭秘
linux·运维·服务器·开发语言·网络·人工智能·学习
陈天伟教授1 小时前
人工智能应用- AI 增强显微镜:08.实时辅助诊断
人工智能·神经网络·机器学习·推荐算法
ACP广源盛139246256731 小时前
IX8024@ACP#重构新一代 AI 算力产品的高速扩展架构
网络·人工智能·嵌入式硬件·计算机外设·电脑
莱歌数字1 小时前
元学习的核心思想
人工智能·科技·学习·制造·cae
TE-茶叶蛋1 小时前
AI聊天机器人 / 轻量级对话系统(调用闭源API)
人工智能·机器人