AAAI AMD:多尺度预测MLP反杀Transformer

2025时序预测新 Paper《AMD》,专门解决时间序列中"多尺度纠缠"的难题!

论文原文 :https://arxiv.org/pdf/2406.03751

代码:https://github.com/TROUBADOUR000/AMD

即插即用代码仓库:https://github.com/AITricks/AITricks

1️⃣ 核心痛点:数据太乱,模型太慢

时间序列往往混杂着短期波动和长期趋势。

Transformer:虽然能看长远,计算量爆炸,而且容易过拟合。

普通 MLP:跑得快,但"脑子"不够用,理不清这些复杂的尺度关系。

AMD 的目标就是:用 MLP 的速度,走出比 Transformer 更精准的步子!

2️⃣ 核心架构:MDM (多尺度拆解)

AMD 并没有一股脑地处理数据,而是设计了 MDM 模块。

原理:利用平均池化把时间序列拆解成多个不同分辨率的子序列。

作用:这就好比把一团乱麻先理成几股线,让模型分别去学习"宏观趋势"和"微观波动",大大降低了学习难度。

3️⃣ 交互魔法:DDI (双重依赖交互)

拆解完之后,怎么处理变量之间的关系?

痛点:不是所有的变量都相关,有时候跨变量学习反而会引入噪声。

策略:DDI 模块 引入了一个动态系数。它能智能地调节"看时间依赖"和"看变量依赖"的比例。如果变量间关系不大,就少看点,避免被噪声带偏。

4️⃣ 融合大招:AMS (专家混合投票)

不同尺度的预测结果怎么合并?作者引入了 MoE思想。

原理:AMS 模块 就像一个裁判团。它包含一个"选择器",根据当前的输入情况,自动决定哪个尺度的预测结果更重要,给它更高的权重。

效果:实现了"自适应"融合,比简单的加权求和聪明得多。

5️⃣ 实验结果:全方位碾压

根据论文在主流数据集上的表现:

精度 SOTA:AMD 在 MSE/MAE 指标上全面超越了目前最强的 Transformer 模型。

效率惊人:得益于纯 MLP 架构,它的计算复杂度是线性的。这意味着在长序列预测任务中,它比 Transformer 快得多,且显存占用极低。

总结:AMD 证明了 "多尺度分解 + 自适应 MLP" 是时序预测的通关密码。如果你在做 时间序列预测、金融量化 或 流量预估,这个架构绝对能帮你涨点!

#计算机视觉 #深度学习 #科研 #提供思路和创新点 #论文 #论文分享 #时间序列

相关推荐
方见华Richard5 小时前
世毫九实验室(Shardy Lab)研究成果清单(2025版)
人工智能·经验分享·交互·原型模式·空间计算
傻小胖6 小时前
22.ETH-智能合约-北大肖臻老师客堂笔记
笔记·区块链·智能合约
浅念-7 小时前
C++入门(2)
开发语言·c++·经验分享·笔记·学习
WeiXiao_Hyy7 小时前
成为 Top 1% 的工程师
java·开发语言·javascript·经验分享·后端
张人玉8 小时前
VisionPro 定位与卡尺测量学习笔记
笔记·学习·计算机视觉·vsionprp
songyuc8 小时前
【BiFormer】BiFormer: Vision Transformer with Bi-Level Routing Attention 译读笔记
笔记·transformer
觉醒大王8 小时前
强女思维:着急,是贪欲外显的相。
java·论文阅读·笔记·深度学习·学习·自然语言处理·学习方法
feasibility.8 小时前
AI 编程助手进阶指南:从 Claude Code 到 OpenCode 的工程化经验总结
人工智能·经验分享·设计模式·自动化·agi·skills·opencode
三水不滴8 小时前
计网:输入网址到网页显示
经验分享·笔记·计算机网络
JustDI-CM9 小时前
AI学习笔记-提示词工程
人工智能·笔记·学习