ACL 2025 Time-LlaMA 大语言模型高效适配时间序列预测将大语言模型用于时间序列分析在近年来备受关注,但其仍然面临几个关键挑战没有被很好解决:模态(modality)对齐问题:时间序列数据与语言文本是不同模态的。如何有效地把时间序列输入与自然语言提示(prompt)结合起来,让 LLM 能理解时间序列的语义或结构,而不仅仅是把时间序列当成一串数字强行塞进去?现有方法常用跨 attention 或 prompt 或 reprogramming module/tokenization,但仍未达到既高效高质量对齐的状态。