ChatTS: Time Series LLM for Understanding and Reasoning

ChatTS: Time Series LLM for Understanding and Reasoning

1、保留值的时间序列归一化

时间序列的数值特征至关重要,因为现实世界的应用通常涉及特定的数值查询(例如,询问最大 CPU 利用率),时间序列数据归一化可能导致丢失原始数据信息。

方案 :首先,我们对每个时间序列数组应用标准的最小 - 最大归一化 (0-1 缩放)。然后,对于每个时间序列 ,我们在文本中作为提示的一部分包含归一化参数 -"值缩放 "(归一化期间的缩放因子)和 "值偏移"(归一化期间应用的偏移)。

代码实现

① 归一化:计算均值并进行中心化,计算缩放因子

② 构建元数据提示词:它会根据时间序列的统计信息 生成一段特殊的文本描述,[offset=0.1234|scaling=1.0000|length=100|max=5.5|min=-2.1|left=0.1|right=0.5]<ts><ts/>

Processing_qwen3_ts.py文件实现了:

① 实现了保留值的时间序列归一化

② 通过将自然语言和原始时间序列转化为TokenID + 归一化时间序列张量

2、整体架构

该模型采用了 "Patch + Projection" 的多模态融合范式(类似 Vision Transformer 或 LLaVA 处理图像的方式):

  1. 基座模型 (Backbone): 使用 Qwen3Model 作为大脑,负责处理上下文和生成文本。
  2. 编码器 (Encoder): 使用一个轻量级的 TimeSeriesEmbedding (MLP结构) 将时间序列切片(Patch)并映射到 LLM 的特征空间(Embedding Space)。
  3. 融合机制 (Fusion): 在输入层(Input Embedding layer)直接将文本的 Embedding 和时间序列的 Embedding 拼接在一起。
相关推荐
张较瘦_1 分钟前
[论文阅读] AI + 软件工程 | 突破LLM代码生成瓶颈:编程知识图谱(PKG)让检索增强更精准
论文阅读·人工智能·软件工程
传说故事7 小时前
【论文阅读】HY-Embodied-0.5: Embodied Foundation Models for Real-World Agents
论文阅读·人工智能·机器人·具身智能
传说故事7 小时前
【论文阅读】RISE: Self-Improving Robot Policy with Compositional World Model
论文阅读·人工智能·机器人·具身智能·世界模型
传说故事1 天前
【论文阅读】Diffusion Forcing: Next-token Prediction Meets Full-Sequence Diffusion
论文阅读·人工智能·diffusion
数智工坊2 天前
【SIoU Loss论文阅读】:引入角度感知的框回归损失,让检测收敛更快更准
论文阅读·人工智能·深度学习·机器学习·数据挖掘·回归·cnn
传说故事2 天前
【论文阅读】AWR:Simple and scalable off-policy RL
论文阅读·强化学习
传说故事2 天前
【论文阅读】通过homeostasis RL学习合成综合机器人行为
论文阅读·人工智能·机器人·具身智能
数智工坊2 天前
【VarifocalNet(VFNet)论文阅读】:IoU-aware稠密目标检测,把定位质量塞进分类得分
论文阅读·人工智能·深度学习·目标检测·计算机视觉·分类·cnn
STLearner3 天前
AI论文速读 | QuitoBench:支付宝高质量开源时间序列预测基准测试集
大数据·论文阅读·人工智能·深度学习·学习·机器学习·开源
数智工坊3 天前
【Anchor DETR论文阅读】:基于锚点查询设计的Transformer检测器,50epoch收敛且速度精度双升
论文阅读·深度学习·transformer