TIME-LLM: TIME SERIES FORECASTING BY REPROGRAMMING LARGE LANGUAGE MODELS

本文是LLM系列文章,针对《TIME-LLM: TIME SERIES FORECASTING BY REPROGRAMMING LARGE LANGUAGE MODELS》的翻译。

time-llm:通过重新编程大型语言模型来预测时间序列

  • 摘要
  • [1 引言](#1 引言)
  • [2 相关工作](#2 相关工作)
  • [3 方法](#3 方法)
  • [4 主要结果](#4 主要结果)
  • [5 结论和未来工作](#5 结论和未来工作)

摘要

时间序列预测在许多现实世界的动态系统中具有重要意义,并得到了广泛的研究。与自然语言处理(NLP)和计算机视觉(CV)不同,单个大型模型可以处理多个任务,时间序列预测模型通常是专门的,需要针对不同的任务和应用进行不同的设计。虽然预训练的基础模型在NLP和CV领域取得了令人印象深刻的进步,但它们在时间序列领域的发展受到数据稀疏性的限制。最近的研究表明,大型语言模型(llm)对复杂的符号序列具有强大的模式识别和推理能力。然而,挑战仍然存在,如何有效地将时间序列数据和自然语言的模式结合起来,以利用这些功能。在这项工作中,我们提出了time - llm,这是一个重编程框架,可以在主干语言模型保持完整的情况下,将llm重新用于一般时间序列预测。我们首先用文本原型重新编程输入时间序列,然后将其输入到冻结的LLM中以对齐两种模式。为了增强LLM对时间序列数据进行推理的能力,我们提出了提示作为前缀(PaP),它丰富了输入上下文并指导了重编程输入补丁的转换。最后对LLM变换后的时间序列补丁进行投影,得到预测结果。我们的综合评估表明time - llm是一个强大的时间序列学习器,优于最先进的专业预测模型。此外,TIME-LLM在few-shot和zero-shot学习场景中都表现出色。

1 引言

2 相关工作

3 方法

4 主要结果

5 结论和未来工作

time - llm通过将时间序列数据重新编程为对llm来说更自然的文本原型,并通过Prompt-as-Prefix提供自然语言指导来增强推理能力,从而有望将冻结的大型语言模型用于时间序列预测。评估表明,经过调整的llm可以胜过专门的专家模型,表明它们作为有效的时间序列机器的潜力。我们的结果还提供了一种新颖的见解,即时间序列预测可以作为另一种"语言"任务,可以由现成的LLM处理,通过我们的time -LLM框架实现最先进的性能。进一步的研究应该探索最佳的重编程表示,通过持续的预训练,用明确的时间序列知识丰富llm,建立多模态模型,跨模态联合推理,并应用重编程框架为llm注入额外的新功能。

相关推荐
User_芊芊君子7 分钟前
CANN数学计算基石ops-math深度解析:高性能科学计算与AI模型加速的核心引擎
人工智能·深度学习·神经网络·ai
小白|11 分钟前
CANN与联邦学习融合:构建隐私安全的分布式AI推理与训练系统
人工智能·机器学习·自动驾驶
艾莉丝努力练剑18 分钟前
hixl vs NCCL:昇腾生态通信库的独特优势分析
运维·c++·人工智能·cann
梦帮科技19 分钟前
Node.js配置生成器CLI工具开发实战
前端·人工智能·windows·前端框架·node.js·json
程序员泠零澪回家种桔子21 分钟前
Spring AI框架全方位详解
java·人工智能·后端·spring·ai·架构
Echo_NGC223723 分钟前
【FFmpeg 使用指南】Part 3:码率控制策略与质量评估体系
人工智能·ffmpeg·视频·码率
纤纡.33 分钟前
PyTorch 入门精讲:从框架选择到 MNIST 手写数字识别实战
人工智能·pytorch·python
大大大反派35 分钟前
CANN 生态中的自动化部署引擎:深入 `mindx-sdk` 项目构建端到端 AI 应用
运维·人工智能·自动化
程序猿追35 分钟前
深度解读 AIR (AI Runtime):揭秘 CANN 极致算力编排与调度的核心引擎
人工智能
2601_9495936540 分钟前
深入解析CANN-acl应用层接口:构建高效的AI应用开发框架
数据库·人工智能