⏶3
利用LLM通过基于块的提示和分解进行时间序列预测
发表
由
Franck Dernoncourt 提交
作者: Mayank Bumb, Anshul Vemulapalli, Sri Harsha Vardhan Prasad Jella, Anish Gupta, An La, Ryan A. Rossi, Hongjie Chen,
Franck Dernoncourt, Nesreen K. Ahmed, Yu Wang
摘要
大型语言模型 (LLM) 最近的进展为准确高效的时间序列分析展示了新的可能性,但先前的工作通常需要大量的微调和/或忽略了序列间的相关性。在这项工作中,我们探索了简单灵活的基于提示的策略,使得 LLM 能够在不需要大量重新训练或使用复杂外部架构的情况下执行时间序列预测。通过探索利用时间序列分解、基于分块的标记化以及基于相似性的邻居增强等专门的提示方法,我们发现有可能在保持简单性和仅需要少量数据预处理的情况下提高 LLM 的预测质量。为此,我们提出了自己的方法 PatchInstruct,该方法使得 LLM 能够进行精确有效的预测。
评论
论文作者
论文提交者
此评论已隐藏。