AAAI AMD:多尺度预测MLP反杀Transformer

2025时序预测新 Paper《AMD》,专门解决时间序列中"多尺度纠缠"的难题!

论文原文 :https://arxiv.org/pdf/2406.03751

代码:https://github.com/TROUBADOUR000/AMD

即插即用代码仓库:https://github.com/AITricks/AITricks

1️⃣ 核心痛点:数据太乱,模型太慢

时间序列往往混杂着短期波动和长期趋势。

Transformer:虽然能看长远,计算量爆炸,而且容易过拟合。

普通 MLP:跑得快,但"脑子"不够用,理不清这些复杂的尺度关系。

AMD 的目标就是:用 MLP 的速度,走出比 Transformer 更精准的步子!

2️⃣ 核心架构:MDM (多尺度拆解)

AMD 并没有一股脑地处理数据,而是设计了 MDM 模块。

原理:利用平均池化把时间序列拆解成多个不同分辨率的子序列。

作用:这就好比把一团乱麻先理成几股线,让模型分别去学习"宏观趋势"和"微观波动",大大降低了学习难度。

3️⃣ 交互魔法:DDI (双重依赖交互)

拆解完之后,怎么处理变量之间的关系?

痛点:不是所有的变量都相关,有时候跨变量学习反而会引入噪声。

策略:DDI 模块 引入了一个动态系数。它能智能地调节"看时间依赖"和"看变量依赖"的比例。如果变量间关系不大,就少看点,避免被噪声带偏。

4️⃣ 融合大招:AMS (专家混合投票)

不同尺度的预测结果怎么合并?作者引入了 MoE思想。

原理:AMS 模块 就像一个裁判团。它包含一个"选择器",根据当前的输入情况,自动决定哪个尺度的预测结果更重要,给它更高的权重。

效果:实现了"自适应"融合,比简单的加权求和聪明得多。

5️⃣ 实验结果:全方位碾压

根据论文在主流数据集上的表现:

精度 SOTA:AMD 在 MSE/MAE 指标上全面超越了目前最强的 Transformer 模型。

效率惊人:得益于纯 MLP 架构,它的计算复杂度是线性的。这意味着在长序列预测任务中,它比 Transformer 快得多,且显存占用极低。

总结:AMD 证明了 "多尺度分解 + 自适应 MLP" 是时序预测的通关密码。如果你在做 时间序列预测、金融量化 或 流量预估,这个架构绝对能帮你涨点!

#计算机视觉 #深度学习 #科研 #提供思路和创新点 #论文 #论文分享 #时间序列

相关推荐
其实秋天的枫12 小时前
【2026年最新】驾考科目一考试题库2309道电子版pdf
经验分享·pdf
一轮弯弯的明月13 小时前
贝尔数求集合划分方案总数
java·笔记·蓝桥杯·学习心得
航Hang*14 小时前
第3章:Linux系统安全管理——第2节:部署代理服务
linux·运维·服务器·开发语言·笔记·系统安全
zjnlswd14 小时前
tkinter学习案例--笔记代码
笔记·学习
独小乐14 小时前
009.中断实践之实现按键测试|千篇笔记实现嵌入式全栈/裸机篇
linux·c语言·驱动开发·笔记·嵌入式硬件·arm
无聊大侠hello world14 小时前
Yu-AI-Agent 项目(AI 恋爱大师智能体) · 学习笔记
人工智能·笔记·学习
CheerWWW14 小时前
C++学习笔记——箭头运算符、std::vector的使用、静态链接、动态链接
c++·笔记·学习
ZhiqianXia15 小时前
Pytorch 学习笔记(17):decompositions.py —— 算子分解的百科全书
pytorch·笔记·学习
xian_wwq15 小时前
【学习笔记】大模型如何理解图片
笔记·学习
talen_hx29615 小时前
《零基础入门Spark》学习笔记 Day 13
笔记·学习·spark