论文笔记:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models

iclr 2024 reviewer 评分 3888

1 方法

  • 提出了 Time-LLM,
    • 是一个通用的大模型重编程(LLM Reprogramming)框架
    • 将 LLM 轻松用于一般时间序列预测,而无需对大语言模型本身做任何训练

为什么需要时序数据和文本数据对齐:时序数据和文本数据在表达方式上存在显著差异,两者属于不同的模态。时间序列既不能直接编辑,也不能无损地用自然语言描述

3 实验

3.1 实验结果

3.2 few-shot 实验结果

3.3 zero-shot 结果

3.4 ablation study

相关推荐
AIbase202410 分钟前
AI时代企业获取精准流量与实现增长的GEO新引擎
人工智能·搜索引擎·百度
陈敬雷-充电了么-CEO兼CTO11 分钟前
具身智能模拟器:解决机器人实机训练场景局限与成本问题的创新方案
大数据·人工智能·机器学习·chatgpt·机器人·具身智能
东临碣石8215 分钟前
【AI论文】Robix:一种面向机器人交互、推理与规划的统一模型
人工智能
Hello Mr.Z44 分钟前
使用pytorch创建/训练/推理OCR模型
人工智能·pytorch·python
wan5555cn1 小时前
文字生视频的“精准”代码设定的核心原则本质是最小化文本语义与视频内容的KL散度
人工智能·笔记·深度学习·音视频
IT_陈寒1 小时前
Python异步编程的7个致命误区:90%开发者踩过的坑及高效解决方案
前端·人工智能·后端
老猿讲编程1 小时前
存算一体:重构AI计算的革命性技术(1)
人工智能·重构
easy20201 小时前
从 Excel 趋势线到机器学习:拆解 AI 背后的核心框架
人工智能·笔记·机器学习
天机️灵韵1 小时前
OpenAvatarChat项目在Windows本地运行指南
人工智能·开源项目·openavatarchat
DeeplyMind2 小时前
AMD KFD驱动技术分析16:SVM Aperture
人工智能·机器学习·amdgpu·rocm·kfd