ChatTS: Time Series LLM for Understanding and Reasoning

ChatTS: Time Series LLM for Understanding and Reasoning

1、保留值的时间序列归一化

时间序列的数值特征至关重要,因为现实世界的应用通常涉及特定的数值查询(例如,询问最大 CPU 利用率),时间序列数据归一化可能导致丢失原始数据信息。

方案 :首先,我们对每个时间序列数组应用标准的最小 - 最大归一化 (0-1 缩放)。然后,对于每个时间序列 ,我们在文本中作为提示的一部分包含归一化参数 -"值缩放 "(归一化期间的缩放因子)和 "值偏移"(归一化期间应用的偏移)。

代码实现

① 归一化:计算均值并进行中心化,计算缩放因子

② 构建元数据提示词:它会根据时间序列的统计信息 生成一段特殊的文本描述,[offset=0.1234|scaling=1.0000|length=100|max=5.5|min=-2.1|left=0.1|right=0.5]<ts><ts/>

Processing_qwen3_ts.py文件实现了:

① 实现了保留值的时间序列归一化

② 通过将自然语言和原始时间序列转化为TokenID + 归一化时间序列张量

2、整体架构

该模型采用了 "Patch + Projection" 的多模态融合范式(类似 Vision Transformer 或 LLaVA 处理图像的方式):

  1. 基座模型 (Backbone): 使用 Qwen3Model 作为大脑,负责处理上下文和生成文本。
  2. 编码器 (Encoder): 使用一个轻量级的 TimeSeriesEmbedding (MLP结构) 将时间序列切片(Patch)并映射到 LLM 的特征空间(Embedding Space)。
  3. 融合机制 (Fusion): 在输入层(Input Embedding layer)直接将文本的 Embedding 和时间序列的 Embedding 拼接在一起。
相关推荐
on_pluto_21 小时前
论文Heterogeneous Graph Transformer(HGT)阅读笔记
论文阅读·人工智能·笔记·深度学习·学习方法
STLearner1 天前
ICLR 2026 | 时空数据(Spatial-Temporal)论文总结[上](交通与城市科学:交通预测,轨迹挖掘,自动驾驶等)
大数据·论文阅读·人工智能·深度学习·机器学习·数据挖掘·自动驾驶
Chunyyyen1 天前
【第三十五周】论文阅读01
论文阅读
传说故事1 天前
【论文阅读】See Once, Then Act:基于单次视频演示任务学习的VLA模型
论文阅读·人工智能·具身智能·vla
c0d1ng1 天前
论文阅读(三月第一周)
论文阅读
Julyers1 天前
【论文阅读】Line-Mod算法
论文阅读·人工智能
薛定e的猫咪15 天前
【AAAI 2025】基于扩散模型的昂贵多目标贝叶斯优化
论文阅读·人工智能·算法
YMWM_15 天前
论文阅读“SimVLA: A Simple VLA Baseline for Robotic Manipulation“
论文阅读·vla
m0_6501082415 天前
VLN-Zero:零样本机器人导航的神经符号视觉语言规划框架
论文阅读·零样本·机器人导航·视觉语言导航·未知环境快速适配·符号化场景图·vlm推理
晓山清16 天前
【论文阅读】Self-supervised Learning of Person-specific Facial Dynamics for APR
论文阅读