AAAI AMD:多尺度预测MLP反杀Transformer

2025时序预测新 Paper《AMD》,专门解决时间序列中"多尺度纠缠"的难题!

论文原文 :https://arxiv.org/pdf/2406.03751

代码:https://github.com/TROUBADOUR000/AMD

即插即用代码仓库:https://github.com/AITricks/AITricks

1️⃣ 核心痛点:数据太乱,模型太慢

时间序列往往混杂着短期波动和长期趋势。

Transformer:虽然能看长远,计算量爆炸,而且容易过拟合。

普通 MLP:跑得快,但"脑子"不够用,理不清这些复杂的尺度关系。

AMD 的目标就是:用 MLP 的速度,走出比 Transformer 更精准的步子!

2️⃣ 核心架构:MDM (多尺度拆解)

AMD 并没有一股脑地处理数据,而是设计了 MDM 模块。

原理:利用平均池化把时间序列拆解成多个不同分辨率的子序列。

作用:这就好比把一团乱麻先理成几股线,让模型分别去学习"宏观趋势"和"微观波动",大大降低了学习难度。

3️⃣ 交互魔法:DDI (双重依赖交互)

拆解完之后,怎么处理变量之间的关系?

痛点:不是所有的变量都相关,有时候跨变量学习反而会引入噪声。

策略:DDI 模块 引入了一个动态系数。它能智能地调节"看时间依赖"和"看变量依赖"的比例。如果变量间关系不大,就少看点,避免被噪声带偏。

4️⃣ 融合大招:AMS (专家混合投票)

不同尺度的预测结果怎么合并?作者引入了 MoE思想。

原理:AMS 模块 就像一个裁判团。它包含一个"选择器",根据当前的输入情况,自动决定哪个尺度的预测结果更重要,给它更高的权重。

效果:实现了"自适应"融合,比简单的加权求和聪明得多。

5️⃣ 实验结果:全方位碾压

根据论文在主流数据集上的表现:

精度 SOTA:AMD 在 MSE/MAE 指标上全面超越了目前最强的 Transformer 模型。

效率惊人:得益于纯 MLP 架构,它的计算复杂度是线性的。这意味着在长序列预测任务中,它比 Transformer 快得多,且显存占用极低。

总结:AMD 证明了 "多尺度分解 + 自适应 MLP" 是时序预测的通关密码。如果你在做 时间序列预测、金融量化 或 流量预估,这个架构绝对能帮你涨点!

#计算机视觉 #深度学习 #科研 #提供思路和创新点 #论文 #论文分享 #时间序列

相关推荐
左左右右左右摇晃1 小时前
计算机网络笔记整理
笔记·计算机网络
腾阳1 小时前
99%的人忽视了这一点:活着本身就是人生的意义,别让抑郁和内耗成为你的枷锁!
经验分享·程序人生·职场和发展·跳槽·学习方法·媒体
不吃西红柿的851 小时前
[职场] 内容运营求职简历范文 #笔记#职场发展
笔记·职场和发展·内容运营
似水明俊德2 小时前
02-C#.Net-反射-学习笔记
开发语言·笔记·学习·c#·.net
智者知已应修善业3 小时前
【51单片机独立按键控制数码管移动反向,2片74CH573/74CH273段和位,按键按下保持原状态】2023-3-25
经验分享·笔记·单片机·嵌入式硬件·算法·51单片机
C羊驼3 小时前
C语言:两天打鱼,三天晒网
c语言·经验分享·笔记·算法·青少年编程
sheeta19983 小时前
苍穹外卖Day04笔记
笔记
CC数分5 小时前
电商领域备考CDA数据分析师经验分享
经验分享·数据分析
有点傻的小可爱6 小时前
【MATLAB】新安装并口如何实现能通过PTB启用?
开发语言·windows·经验分享·matlab
今儿敲了吗7 小时前
46| FBI树
数据结构·c++·笔记·学习·算法