论文阅读——RetNet

transformer的问题:计算量大,占用内存大,不好部署。

所以大家在找能解决办法,既能和transformer表现一样好,又能在推理阶段计算复杂度很低。

这些方法大概分类三类:一是代替transformer非线性注意力机制的线性注意力,二是牺牲并行训练,但是推理效率高的循环模型,三是寻找一种其他机制代替注意力机制。但是都不成功。

RetNet整体结构:

X是每层的输入序列,LN是LayerNorm

MSR:multi-scale retention

RetNet是L个单独模块堆叠,每个模块包含MSR和FFN两部分。

考虑循环模型序列建模问题,可以表示为:

其中,Sn是隐层,Vn是输入。

By absorbing A into WQ and WK,把方程写为:

γ简化为标量:

retention layer定义为:

相关推荐
deephub4 分钟前
RAG 中分块重叠的 8 个隐性开销与权衡策略
人工智能·大语言模型·rag·检索
Ethan Hunt丶5 分钟前
MSVTNet: 基于多尺度视觉Transformer的运动想象EEG分类模型
人工智能·深度学习·算法·transformer·脑机接口
康康的AI博客18 分钟前
智能情感分析与品牌策略优化:如何通过AI洞察提升企业市场响应力
大数据·数据库·人工智能
亚古数据25 分钟前
法国公司的类型:探索法国企业的多样形态
大数据·人工智能·亚古数据·法国公司
星爷AG I26 分钟前
12-11 印象加工(AGI基础理论)
人工智能·agi
gs8014030 分钟前
赋予 AI 大模型“联网”超能力:Serper (Google Search API) 深度解析与实战
人工智能
朴实赋能38 分钟前
当爱情可以“看见”:基于AI可穿戴设备与戈特曼理论的情感陪伴系统如何重塑亲密关系
人工智能·鸟理论·关注尝试·情绪同步性·修复尝试·关系测试·情绪可视化
金融小师妹1 小时前
3月美联储货币政策决策的动态博弈——基于就业市场数据与通胀预测的AI模型分析
大数据·人工智能·深度学习·机器学习
IDZSY04301 小时前
【机乎】国内版Moltbook低调上线,AI智能体社交悄然生长
人工智能
葡萄城技术团队1 小时前
从 Shortcut 的爆火,看 AI 时代电子表格的技术底座与架构演进
人工智能·架构