论文笔记:TimeGPT-1

时间序列的第一个基础大模型

1 方法

  • 最basic的Transformer架构
  • 采用了公开可用的最大时间序列数据集进行训练,包含超过1000亿个数据点。
    • 训练集涵盖了来自金融、经济、人口统计、医疗保健、天气、物联网传感器数据、能源、网络流量、销售、交通和银行业等广泛领域的时间序列
    • 具有多种季节性、不同长度的周期和各种趋势类型的序列
    • 还在噪声和异常值方面有所不同

2 结果

3 一点私货时间

  • 论文并没有怎么说明不同时间序列在不同的数据维度、采样频率、周期性下,如何train TimeGPT,我个人其实是对时间序列大模型不太乐观的(可能没过多久就被打脸了。。。)

    • 在NLP中,无论使用哪种语言,它们背后都遵循着一些普遍的、共通的语言规律(由同一个dynamics生成的各国语言)。这些规律反映了人类表达思想和交流信息的共性。因此,NLP中的大模型能够通过学习这些普遍规律来理解和生成不同语言。=

    • 相比之下,时间序列数据可以来自多种不同的领域,如交通、气象、金融等,每个领域的数据都遵循着其特有的规律。这些规律可能相互之间没有太多的共性,使得模型很难通过学习一种类型的时间序列数据来理解或预测另一种类型的数据。此外,时间序列数据往往仅仅是一系列的数字,缺乏NLP中的丰富语义和上下文信息,这使得从时间序列数据中学习和提取规律更加困难。

  • 论文比较的baseline emm,有点老。。。

相关推荐
Zhouqi_Hua4 小时前
LLM论文笔记 15: Transformers Can Achieve Length Generalization But Not Robustly
论文阅读·笔记·深度学习·语言模型·自然语言处理
X.Cristiano7 小时前
月之暗面-KIMI-发布最新架构MoBA
论文阅读·moba·kimi·月之暗面
永远前进不waiting1 天前
论文阅读4——一种宽频带圆极化微带天线的设计
论文阅读
Zhouqi_Hua1 天前
LLM论文笔记 12: Teaching Arithmetic to Small Transformers
论文阅读·人工智能·深度学习·神经网络·语言模型
诸葛思颖1 天前
阅读论文笔记《Translating Embeddings for Modeling Multi-relational Data》
论文阅读
远瞻。2 天前
[论文阅读] SeeSR: Towards Semantics-Aware Real-World Image Super-Resolution
论文阅读·人工智能·计算机视觉
啦哈拉哈2 天前
复现论文:DPStyler: Dynamic PromptStyler for Source-Free Domain Generalization
论文阅读·python·论文笔记
行然梦实4 天前
论文阅读_用于低频隔振的高负刚度新型阵列磁性弹簧的分析与设计_3
论文阅读·笔记·能源·制造·交通物流
zstar-_5 天前
DeepSeek-R1论文阅读及本地调用
论文阅读
想成为配环境大佬5 天前
Bandana论文阅读
论文阅读·深度学习