ChatTS: Time Series LLM for Understanding and Reasoning

ChatTS: Time Series LLM for Understanding and Reasoning

1、保留值的时间序列归一化

时间序列的数值特征至关重要,因为现实世界的应用通常涉及特定的数值查询(例如,询问最大 CPU 利用率),时间序列数据归一化可能导致丢失原始数据信息。

方案 :首先,我们对每个时间序列数组应用标准的最小 - 最大归一化 (0-1 缩放)。然后,对于每个时间序列 ,我们在文本中作为提示的一部分包含归一化参数 -"值缩放 "(归一化期间的缩放因子)和 "值偏移"(归一化期间应用的偏移)。

代码实现

① 归一化:计算均值并进行中心化,计算缩放因子

② 构建元数据提示词:它会根据时间序列的统计信息 生成一段特殊的文本描述,[offset=0.1234|scaling=1.0000|length=100|max=5.5|min=-2.1|left=0.1|right=0.5]<ts><ts/>

Processing_qwen3_ts.py文件实现了:

① 实现了保留值的时间序列归一化

② 通过将自然语言和原始时间序列转化为TokenID + 归一化时间序列张量

2、整体架构

该模型采用了 "Patch + Projection" 的多模态融合范式(类似 Vision Transformer 或 LLaVA 处理图像的方式):

  1. 基座模型 (Backbone): 使用 Qwen3Model 作为大脑,负责处理上下文和生成文本。
  2. 编码器 (Encoder): 使用一个轻量级的 TimeSeriesEmbedding (MLP结构) 将时间序列切片(Patch)并映射到 LLM 的特征空间(Embedding Space)。
  3. 融合机制 (Fusion): 在输入层(Input Embedding layer)直接将文本的 Embedding 和时间序列的 Embedding 拼接在一起。
相关推荐
森诺Alyson17 小时前
前沿技术借鉴研讨-2026.4.9(视觉语言模型)
论文阅读·人工智能·经验分享·语言模型·自然语言处理·论文笔记·论文讨论
CV-杨帆2 天前
论文阅读:ICML 2025 COLLABLLM: From Passive Responders to Active Collaborators
论文阅读
CV-杨帆2 天前
论文阅读:arixv 2026 ClawSafety: “Safe“ LLMs, Unsafe Agents
论文阅读
温九味闻醉3 天前
论文阅读:Meta | HSTU
论文阅读
做cv的小昊3 天前
结合代码读3DGS论文(12)——NeurIPS 2024 Spotlight 3DGS经典Backbone工作3DGS-MCMC论文及代码解读
论文阅读·计算机视觉·3d·图形渲染·游戏开发·计算机图形学·3dgs
min1811234564 天前
小型网站开发简易流程步骤 在线画图工具快速生成开发流程图方法
论文阅读·信息可视化·毕业设计·流程图·论文笔记
0x2114 天前
[论文阅读]DeepSeek-V3 Technical Report
论文阅读
SUNNY_SHUN5 天前
VLM走进农田:AgriChat覆盖3000+作物品类,607K农业视觉问答基准开源
论文阅读·人工智能·算法·开源
七元权5 天前
论文阅读-Fast-FoundationStereo
论文阅读
feasibility.6 天前
DreamZero技术解析:当世界模型成为机器人“物理大脑”
论文阅读·人工智能·机器人·零样本·具身智能·vla·世界模型