2025时序预测新 Paper《AMD》,专门解决时间序列中"多尺度纠缠"的难题!
论文原文 :https://arxiv.org/pdf/2406.03751
代码:https://github.com/TROUBADOUR000/AMD
即插即用代码仓库:https://github.com/AITricks/AITricks
1️⃣ 核心痛点:数据太乱,模型太慢
时间序列往往混杂着短期波动和长期趋势。
Transformer:虽然能看长远,计算量爆炸,而且容易过拟合。
普通 MLP:跑得快,但"脑子"不够用,理不清这些复杂的尺度关系。
AMD 的目标就是:用 MLP 的速度,走出比 Transformer 更精准的步子!
2️⃣ 核心架构:MDM (多尺度拆解)
AMD 并没有一股脑地处理数据,而是设计了 MDM 模块。
原理:利用平均池化把时间序列拆解成多个不同分辨率的子序列。
作用:这就好比把一团乱麻先理成几股线,让模型分别去学习"宏观趋势"和"微观波动",大大降低了学习难度。
3️⃣ 交互魔法:DDI (双重依赖交互)
拆解完之后,怎么处理变量之间的关系?
痛点:不是所有的变量都相关,有时候跨变量学习反而会引入噪声。
策略:DDI 模块 引入了一个动态系数。它能智能地调节"看时间依赖"和"看变量依赖"的比例。如果变量间关系不大,就少看点,避免被噪声带偏。
4️⃣ 融合大招:AMS (专家混合投票)
不同尺度的预测结果怎么合并?作者引入了 MoE思想。
原理:AMS 模块 就像一个裁判团。它包含一个"选择器",根据当前的输入情况,自动决定哪个尺度的预测结果更重要,给它更高的权重。
效果:实现了"自适应"融合,比简单的加权求和聪明得多。
5️⃣ 实验结果:全方位碾压
根据论文在主流数据集上的表现:
精度 SOTA:AMD 在 MSE/MAE 指标上全面超越了目前最强的 Transformer 模型。
效率惊人:得益于纯 MLP 架构,它的计算复杂度是线性的。这意味着在长序列预测任务中,它比 Transformer 快得多,且显存占用极低。
总结:AMD 证明了 "多尺度分解 + 自适应 MLP" 是时序预测的通关密码。如果你在做 时间序列预测、金融量化 或 流量预估,这个架构绝对能帮你涨点!
#计算机视觉 #深度学习 #科研 #提供思路和创新点 #论文 #论文分享 #时间序列