大佬Christoph Bergmeir的PPT讨论了多个时间序列模型的问题,讲了一些常见时间序列模型的问题以及一些trick:
常见模型问题总结
接下来是常见的深度学习时间序列模型存在的问题。。
也是老生长谈的问题了,公开数据集杀疯了,一测一个sota;私有数据集上拉跨,一测一个不吱声
Informer,出列!
-
在天气和电力负荷数据集上,长期预测(如720天)几乎是不可能的,因为气象学家认为超过两周的预测就像掷骰子。
-
Informer 原始基准测试设置不合理,未考虑季节性,作者用动态谐波回归(DHR)结合 ARIMA 误差(DHR - ARIMA)作为合理基准,在 ETTh1 和 ECL 数据集上的运行结果显示,Informer 等模型相比 DHR - ARIMA 表现不佳。
TimesNet,出列!
-
在M4数据集上,TimesNet的OWA(Overall Weighted Average)为0.851,虽然在其论文中排名第一,但在原始M4竞赛中仅排名第七,落后于未使用深度学习甚至可能未使用机器学习的方法(蚌埠住了)。
-
模型的表现被夸大,实际效果不如论文中声称的那么好。
TimeLLM,出列!
-
在M4数据集上,TimeLLM的OWA为0.859,但其对TimesNet和NBEATS的OWA进行了“更新”后,落后于未使用深度学习甚至可能未使用机器学习的方法。
-
模型的评估结果可能被操纵,以显示更好的性能。
PatchTST,出列!
-
新方法在重新运行 Informer 实验时结果较差,在 ETTh1 数据集上 “获胜” 时 MSE、MAE 较大,且评估设置存在问题,如 PatchTST 使用 “Drop Last trick”,新方法比较时限制输入窗口长度,这种做法有利于复杂模型,不公平。
Autoformer,出列!
-
Autoformer 在不同预测期的 MAE 和 MSE 指标上,与简单预测相比不占优势,且该数据集存在数据缺失问题(可能排除了银行假日等非交易日)。
-
其他研究也发现 Dlinear 和 ForecastPFN 等模型在汇率预测中简单预测表现更优,Autoformer、Informer 等方法输给简单预测
大佬的建议
-
「问题」:
-
基于语言模型的时间序列预测器(如TimeLLM)通常表现不如简单的非语言模型,且需要更多的计算资源。
-
语言模型在处理时间序列时缺乏上下文信息,导致预测不准确。
-
时间序列数据噪声大,信息有限,模型选择可能变得复杂。
-
更多的数据可能增加不确定性,导致模型表现下降。
-
模型可能无法区分不同类型的时间序列(如电力负荷和天气数据)。
-
-
「技巧」:
-
在时间序列预测中,引入上下文信息(如时间序列的描述)可以提高模型的准确性。
-
避免过度依赖语言模型,尤其是在缺乏上下文的情况下。
-
需要时间序列预测学习资料和论文指导的可以
关助薇X【公重号】:AI技术星球 发送:211C 暗号自取
PPT部分: