ChatTS: Time Series LLM for Understanding and Reasoning

ChatTS: Time Series LLM for Understanding and Reasoning

1、保留值的时间序列归一化

时间序列的数值特征至关重要,因为现实世界的应用通常涉及特定的数值查询(例如,询问最大 CPU 利用率),时间序列数据归一化可能导致丢失原始数据信息。

方案 :首先,我们对每个时间序列数组应用标准的最小 - 最大归一化 (0-1 缩放)。然后,对于每个时间序列 ,我们在文本中作为提示的一部分包含归一化参数 -"值缩放 "(归一化期间的缩放因子)和 "值偏移"(归一化期间应用的偏移)。

代码实现

① 归一化:计算均值并进行中心化,计算缩放因子

② 构建元数据提示词:它会根据时间序列的统计信息 生成一段特殊的文本描述,[offset=0.1234|scaling=1.0000|length=100|max=5.5|min=-2.1|left=0.1|right=0.5]<ts><ts/>

Processing_qwen3_ts.py文件实现了:

① 实现了保留值的时间序列归一化

② 通过将自然语言和原始时间序列转化为TokenID + 归一化时间序列张量

2、整体架构

该模型采用了 "Patch + Projection" 的多模态融合范式(类似 Vision Transformer 或 LLaVA 处理图像的方式):

  1. 基座模型 (Backbone): 使用 Qwen3Model 作为大脑,负责处理上下文和生成文本。
  2. 编码器 (Encoder): 使用一个轻量级的 TimeSeriesEmbedding (MLP结构) 将时间序列切片(Patch)并映射到 LLM 的特征空间(Embedding Space)。
  3. 融合机制 (Fusion): 在输入层(Input Embedding layer)直接将文本的 Embedding 和时间序列的 Embedding 拼接在一起。
相关推荐
有Li2 小时前
立结合解剖学知识的潜在空间建模下的群体水平脑结构连接性/文献速递-基于人工智能的医学影像技术
大数据·论文阅读·文献·医学生
Ma0407132 小时前
【论文阅读32】-利用大数据对用于工业故障诊断的大型语言模型进行半监督前缀调整
论文阅读
小明_GLC3 小时前
HyperD: Hybrid Periodicity Decoupling Framework for Traffic Forecasting
论文阅读
c0d1ng3 小时前
一月第三周周报(论文阅读)
论文阅读
三木今天学习了嘛4 小时前
【VLA(三)】近期思考
论文阅读
在雨中6124 小时前
论文阅读:OneRecMini
论文阅读
数说星榆1811 天前
本科毕业设计流程图在线生成
论文阅读·毕业设计·流程图·论文笔记·毕设
静听松涛1331 天前
本科毕业论文流程图制作方法
论文阅读·毕业设计·流程图·论文笔记·毕设
AustinCyy1 天前
【论文笔记】MasRouter: Learning to Route LLMs for Multi-Agent Systems
论文阅读