AAAI AMD:多尺度预测MLP反杀Transformer

2025时序预测新 Paper《AMD》,专门解决时间序列中"多尺度纠缠"的难题!

论文原文 :https://arxiv.org/pdf/2406.03751

代码:https://github.com/TROUBADOUR000/AMD

即插即用代码仓库:https://github.com/AITricks/AITricks

1️⃣ 核心痛点:数据太乱,模型太慢

时间序列往往混杂着短期波动和长期趋势。

Transformer:虽然能看长远,计算量爆炸,而且容易过拟合。

普通 MLP:跑得快,但"脑子"不够用,理不清这些复杂的尺度关系。

AMD 的目标就是:用 MLP 的速度,走出比 Transformer 更精准的步子!

2️⃣ 核心架构:MDM (多尺度拆解)

AMD 并没有一股脑地处理数据,而是设计了 MDM 模块。

原理:利用平均池化把时间序列拆解成多个不同分辨率的子序列。

作用:这就好比把一团乱麻先理成几股线,让模型分别去学习"宏观趋势"和"微观波动",大大降低了学习难度。

3️⃣ 交互魔法:DDI (双重依赖交互)

拆解完之后,怎么处理变量之间的关系?

痛点:不是所有的变量都相关,有时候跨变量学习反而会引入噪声。

策略:DDI 模块 引入了一个动态系数。它能智能地调节"看时间依赖"和"看变量依赖"的比例。如果变量间关系不大,就少看点,避免被噪声带偏。

4️⃣ 融合大招:AMS (专家混合投票)

不同尺度的预测结果怎么合并?作者引入了 MoE思想。

原理:AMS 模块 就像一个裁判团。它包含一个"选择器",根据当前的输入情况,自动决定哪个尺度的预测结果更重要,给它更高的权重。

效果:实现了"自适应"融合,比简单的加权求和聪明得多。

5️⃣ 实验结果:全方位碾压

根据论文在主流数据集上的表现:

精度 SOTA:AMD 在 MSE/MAE 指标上全面超越了目前最强的 Transformer 模型。

效率惊人:得益于纯 MLP 架构,它的计算复杂度是线性的。这意味着在长序列预测任务中,它比 Transformer 快得多,且显存占用极低。

总结:AMD 证明了 "多尺度分解 + 自适应 MLP" 是时序预测的通关密码。如果你在做 时间序列预测、金融量化 或 流量预估,这个架构绝对能帮你涨点!

#计算机视觉 #深度学习 #科研 #提供思路和创新点 #论文 #论文分享 #时间序列

相关推荐
Aliex_git9 小时前
性能优化 - Vue 日常实践优化
前端·javascript·vue.js·笔记·学习·性能优化
Yu_Lijing9 小时前
基于C++的《Head First设计模式》笔记——抽象工厂模式
c++·笔记·设计模式
创作者mateo9 小时前
PyTorch 入门学习笔记(实战篇)二
pytorch·笔记·学习
HuDie3409 小时前
因果推断与AB实验
笔记
逑之9 小时前
C语言笔记8:操作符
c语言·开发语言·笔记
优雅的潮叭9 小时前
c++ 学习笔记之 模板元编程
c++·笔记·学习
九成宫9 小时前
计算机网络期末复习——第3章:运输层 Part One
网络·笔记·计算机网络·软件工程
xian_wwq9 小时前
【学习笔记】网络安全L3级模型功能解析
笔记·学习·安全
逑之9 小时前
C语言笔记2:C语言数据类型和变量
c语言·开发语言·笔记