论文笔记:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models

iclr 2024 reviewer 评分 3888

1 方法

  • 提出了 Time-LLM,
    • 是一个通用的大模型重编程(LLM Reprogramming)框架
    • 将 LLM 轻松用于一般时间序列预测,而无需对大语言模型本身做任何训练

为什么需要时序数据和文本数据对齐:时序数据和文本数据在表达方式上存在显著差异,两者属于不同的模态。时间序列既不能直接编辑,也不能无损地用自然语言描述

3 实验

3.1 实验结果

3.2 few-shot 实验结果

3.3 zero-shot 结果

3.4 ablation study

相关推荐
不会打球的摄影师不是好程序员几秒前
dify实战-个人知识库搭建
人工智能
xixixi7777711 分钟前
对 两种不同AI范式——Transformer 和 LSTM 进行解剖和对比
人工智能·深度学习·大模型·lstm·transformer·智能·前沿
lfPCB13 分钟前
聚焦机器人算力散热:PCB液冷集成的工程化现实阻碍
人工智能·机器人
sunxunyong16 分钟前
CC-Ralph实测
人工智能·自然语言处理
IT_陈寒19 分钟前
Vite 5分钟性能优化实战:从3秒到300ms的冷启动提速技巧(附可复用配置)
前端·人工智能·后端
十六年开源服务商25 分钟前
WordPress集成GoogleAnalytics最佳实践指南
前端·人工智能·机器学习
市象27 分钟前
石头把科技摔掉了
人工智能
子午28 分钟前
【2026原创】水稻植物病害识别系统~Python+深度学习+人工智能+resnet50算法+TensorFlow+图像识别
人工智能·python·深度学习
AI即插即用34 分钟前
超分辨率重建(论文精读) | CVPR 2025 LSRNA:利用隐空间超分与噪声对齐,打破扩散模型生成 4K 图像的效率瓶颈
图像处理·人工智能·深度学习·计算机视觉·视觉检测·超分辨率重建
AI营销干货站35 分钟前
原圈科技AI市场分析白皮书:决胜2026,重塑市场预测与决策
人工智能