TIME-LLM: TIME SERIES FORECASTING BY REPROGRAMMING LARGE LANGUAGE MODELS

本文是LLM系列文章,针对《TIME-LLM: TIME SERIES FORECASTING BY REPROGRAMMING LARGE LANGUAGE MODELS》的翻译。

time-llm:通过重新编程大型语言模型来预测时间序列

  • 摘要
  • [1 引言](#1 引言)
  • [2 相关工作](#2 相关工作)
  • [3 方法](#3 方法)
  • [4 主要结果](#4 主要结果)
  • [5 结论和未来工作](#5 结论和未来工作)

摘要

时间序列预测在许多现实世界的动态系统中具有重要意义,并得到了广泛的研究。与自然语言处理(NLP)和计算机视觉(CV)不同,单个大型模型可以处理多个任务,时间序列预测模型通常是专门的,需要针对不同的任务和应用进行不同的设计。虽然预训练的基础模型在NLP和CV领域取得了令人印象深刻的进步,但它们在时间序列领域的发展受到数据稀疏性的限制。最近的研究表明,大型语言模型(llm)对复杂的符号序列具有强大的模式识别和推理能力。然而,挑战仍然存在,如何有效地将时间序列数据和自然语言的模式结合起来,以利用这些功能。在这项工作中,我们提出了time - llm,这是一个重编程框架,可以在主干语言模型保持完整的情况下,将llm重新用于一般时间序列预测。我们首先用文本原型重新编程输入时间序列,然后将其输入到冻结的LLM中以对齐两种模式。为了增强LLM对时间序列数据进行推理的能力,我们提出了提示作为前缀(PaP),它丰富了输入上下文并指导了重编程输入补丁的转换。最后对LLM变换后的时间序列补丁进行投影,得到预测结果。我们的综合评估表明time - llm是一个强大的时间序列学习器,优于最先进的专业预测模型。此外,TIME-LLM在few-shot和zero-shot学习场景中都表现出色。

1 引言

2 相关工作

3 方法

4 主要结果

5 结论和未来工作

time - llm通过将时间序列数据重新编程为对llm来说更自然的文本原型,并通过Prompt-as-Prefix提供自然语言指导来增强推理能力,从而有望将冻结的大型语言模型用于时间序列预测。评估表明,经过调整的llm可以胜过专门的专家模型,表明它们作为有效的时间序列机器的潜力。我们的结果还提供了一种新颖的见解,即时间序列预测可以作为另一种"语言"任务,可以由现成的LLM处理,通过我们的time -LLM框架实现最先进的性能。进一步的研究应该探索最佳的重编程表示,通过持续的预训练,用明确的时间序列知识丰富llm,建立多模态模型,跨模态联合推理,并应用重编程框架为llm注入额外的新功能。

相关推荐
文心快码BaiduComate13 小时前
百度云与光本位签署战略合作:用AI Agent 重构芯片研发流程
前端·人工智能·架构
风象南14 小时前
Claude Code这个隐藏技能,让我告别PPT焦虑
人工智能·后端
Mintopia14 小时前
OpenClaw 对软件行业产生的影响
人工智能
陈广亮15 小时前
构建具有长期记忆的 AI Agent:从设计模式到生产实践
人工智能
会写代码的柯基犬15 小时前
DeepSeek vs Kimi vs Qwen —— AI 生成俄罗斯方块代码效果横评
人工智能·llm
Mintopia15 小时前
OpenClaw 是什么?为什么节后热度如此之高?
人工智能
爱可生开源社区16 小时前
DBA 的未来?八位行业先锋的年度圆桌讨论
人工智能·dba
叁两18 小时前
用opencode打造全自动公众号写作流水线,AI 代笔太香了!
前端·人工智能·agent
前端付豪19 小时前
LangChain记忆:通过Memory记住上次的对话细节
人工智能·python·langchain