论文阅读——RetNet

transformer的问题:计算量大,占用内存大,不好部署。

所以大家在找能解决办法,既能和transformer表现一样好,又能在推理阶段计算复杂度很低。

这些方法大概分类三类:一是代替transformer非线性注意力机制的线性注意力,二是牺牲并行训练,但是推理效率高的循环模型,三是寻找一种其他机制代替注意力机制。但是都不成功。

RetNet整体结构:

X是每层的输入序列,LN是LayerNorm

MSR:multi-scale retention

RetNet是L个单独模块堆叠,每个模块包含MSR和FFN两部分。

考虑循环模型序列建模问题,可以表示为:

其中,Sn是隐层,Vn是输入。

By absorbing A into WQ and WK,把方程写为:

γ简化为标量:

retention layer定义为:

相关推荐
kaikaile199515 小时前
能量算子的MATLAB实现与详细算法
人工智能·算法·matlab
小布的学习手记15 小时前
教AI读小说:把《时光机器》变成一串数字的奇妙旅程
人工智能
就是有点傻15 小时前
机器视觉图像处理学习第一天
人工智能·计算机视觉
Aaron158815 小时前
数字波束合成DBF与模拟波束合成ABF对比浅析
大数据·人工智能·算法·硬件架构·硬件工程·信息与通信·信号处理
MRDONG115 小时前
Prompt 到 Context 再到 Harness:AI 工程范式的三次跃迁
人工智能·语言模型·prompt
weixin_4080996715 小时前
【实战案例】电商自动化:如何用 OCR API 批量识别商品图片文字?(完整方案 + 代码示例)
人工智能·ocr·api·文字识别·电商ocr·商品图片文字识别·ocr 批量识别
非晓为骁15 小时前
我用AI给自己做了一场深度复盘
人工智能·ai·复盘
新缸中之脑15 小时前
如何让AI推荐你
人工智能
AI帮小忙15 小时前
OpenClaw 清除对话记录 & 常用命令速查手册
人工智能
wei_shuo15 小时前
基于 Rokid 灵珠 AI 平台:OCR 工作流与学术智能体搭建实操指南
人工智能·语音识别·rokid