论文笔记:Time-LLM: Time Series Forecasting by Reprogramming Large Language Models

iclr 2024 reviewer 评分 3888

1 方法

  • 提出了 Time-LLM,
    • 是一个通用的大模型重编程(LLM Reprogramming)框架
    • 将 LLM 轻松用于一般时间序列预测,而无需对大语言模型本身做任何训练

为什么需要时序数据和文本数据对齐:时序数据和文本数据在表达方式上存在显著差异,两者属于不同的模态。时间序列既不能直接编辑,也不能无损地用自然语言描述

3 实验

3.1 实验结果

3.2 few-shot 实验结果

3.3 zero-shot 结果

3.4 ablation study

相关推荐
青岛佰优联创新科技有限公司1 分钟前
移动板房的网络化建设
服务器·人工智能·云计算·智慧城市
双向3317 分钟前
私有化部署全攻略:开源模型本地化改造的性能与安全评测
人工智能
1892280486118 分钟前
NY243NY253美光固态闪存NY257NY260
大数据·网络·人工智能·缓存
AI波克布林18 分钟前
发文暴论!线性注意力is all you need!
人工智能·深度学习·神经网络·机器学习·注意力机制·线性注意力
张子夜 iiii19 分钟前
机器学习算法系列专栏:主成分分析(PCA)降维算法(初学者)
人工智能·python·算法·机器学习
GIS宇宙21 分钟前
五分钟免费开启你的Vibe Coding之旅!
人工智能
用户51914958484522 分钟前
Three.js实例化技术:高效渲染数千3D对象
人工智能·aigc
weixin_4569042724 分钟前
一文讲清楚Pytorch 张量、链式求导、正向传播、反向求导、计算图等基础知识
人工智能·pytorch·学习
ciku36 分钟前
Spring AI Starter和文档解读
java·人工智能·spring
Blossom.1181 小时前
把 AI 推理塞进「 8 位 MCU 」——0.5 KB RAM 跑通关键词唤醒的魔幻之旅
人工智能·笔记·单片机·嵌入式硬件·深度学习·机器学习·搜索引擎