Falcon-TST: A Large-Scale Time Series Foundation Model

Falcon-TST: A Large-Scale Time Series Foundation Model

Prediction过程

① 输入长度大于固定长度2880 会截断,小于2880会进行前置padding

RevIN 处理,并通过旋转位置编码嵌入相对位置信息

选定专家路由

共享专家

Patch Embedding , 输入 [batch, patch_num, patch_size] --> [patch_num, batch_size, hidden_size], 输出hidden_states, attention_mask, input_mask

Transformer Layer : 没使用因果注意力机制,采用的Transfomer的Encoder架构

共享专家输出+领域专家输出 ,其中前固定长度seq_length 为原始, 后面336为预测长度

推理出混合专家的输出,根据自回归头预测,如果混合专家输出长度大于目标长度,截取目标部分即可。

FalconTST的预测模式:自回归式多步预测(分段式)

① FalconTST在推理时,每一次forward都预测一个固定的最长步长(max(multi_forecast_head_list));

② 在自回归滚动过程中,并不会每次都使用这96步全部结果,而是根据剩余预测长度,只截取其中前多少步做有效预测,并拼接回输入继续预测。

FalconTST采用N-BEATS方法进行迫使模型逐层剥离信号。

N-BEATS 模型由多个Stack模块组成每个stack由多个block串联而成 ,其中第一个block的输入为原始输入序列,输出为两部分,一是对于未来窗口H的预测值 y ^ \hat{y} y^ , 二是对于block输入的重构值 x ^ \hat{x} x^。一方面,下一个block作为之前block的补充,不断地去拟合之前block没有拟合到的残差信息,另一方面,可以将该过程看作对时间序列的分解,不同的stack中block拟合时间序列某一部分的信息,最终NBEATS的输出为各个stack的输出。

因此,FalconTST 在使用时,使用FalconTSTMoELayer层替换FC层结构,其中FalconTST共享专家和路由专家 都是由Transformer的Encoder层构建的,因此利用MOE中共享专家与路由专家的输出,合并之后分割成backcast和forecast,不断获取forecast,并求和,backcast不断缩减,直接最后为空。

差异点:共享专家和路由专家共同构建了是一个完整的基于Transformer架构的模型,它并没有采用两个FC分别建模Backcast和Forecast,而是每一个专家都建模Backcast与Forecast。要求每个专家同时完成:

解释过去(Backcast): "我认为过去这段序列发生了什么(比如是某个特定频率的波形)"。

预测未来(Forecast): "基于我对过去的这种理解,我认为未来会怎么走"。

FalconTST中,FalconTSTMoELayer充当一个N-BEATS Block的角色,Block的输入是上一层的残差,Block的输出一个是用于修正的Backcast和一个用于贡献预测的Forecast。

问题点:为什么FalconTST模型使用的是Transformer Encoder还要利用mask机制?

FalconTST使用Attention Mask不是为了因果性,主要是为了屏蔽完全被padding填充的无效Patch,确保模型不会关注到没有意义的填充区域,这是数据有效性的过滤。

相关推荐
AI科技星几秒前
《全域数学》第三卷:代数原本 · 全书详述【乖乖数学】
开发语言·人工智能·机器学习·数学建模
AI科技星6 分钟前
《全域数学》第一部 数术本源 第三卷 代数原本第14篇 附录二 猜想证明【乖乖数学】
人工智能·算法·数学建模·数据挖掘·量子计算
XD7429716366 分钟前
科技早报|2026年5月2日:AI 编程工具开始按用量收费
人工智能·科技·ai编程·github copilot·科技早报
liangdabiao6 分钟前
乐高摩托车深度报告-致敬张雪夺冠 -基于llm-wiki技术自动化写文章的效果
运维·人工智能·自动化
KC2709 分钟前
Prompt 注入攻击的 5 种姿势和防御指南
人工智能
不懒不懒11 分钟前
【从零入门本地大模型:Ollama 安装部署 + Qwen2.5 实现零样本情感分类】
人工智能·分类·数据挖掘·大模型·ollama
徐健峰15 分钟前
GPT-image-2 热门玩法实战(二):AI 面相分析 & 个人色彩诊断 — 上传自拍秒出专业报告
人工智能·gpt
冰西瓜60016 分钟前
深度学习的数学原理(三十二)—— Transformer全场景掩码机制详解
人工智能·深度学习·transformer
绘梨衣54717 分钟前
Agentic RAG、传统RAG、ReAct、Function Calling 核心关系
人工智能·chatgpt·tensorflow
玩转单片机与嵌入式20 分钟前
嵌入式AI场景:哪些应用场景不适合将AI模型部署到单片机(MCU)中?
人工智能·单片机·嵌入式硬件