A decoder-only foundation model for time-series forecasting

828 篇文章

已下架不支持订阅

本文提出了一种仅解码器的基础模型PreDcT,用于时间序列预测。该模型在大规模时间序列语料库上预训练,表现出接近最佳监督模型的开箱即用性能,并能在各种预测任务中取得出色效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《A decoder-only foundation model for time-series forecasting》的翻译。

摘要

受自然语言处理(NLP)大型语言模型最新进展的启发,我们设计了一个用于预测的时间序列基础模型,该模型在各种公共数据集上的开箱即用零镜头性能接近于每个单独数据集的最先进监督预测模型的准确性。我们的模型基于在大型时间序列语料库上预训练补丁解码器风格的注意力模型,可以在不同的预测历史长度、预测长度和时间粒度上很好地工作。

1 引言

2 相关工作

3 问题定义

4 模型结构

5 实验结果

6 讨论和未来工作

我们使用大约1B个时间点的大型预训练语料库来训练用于时间序列预测的仅解码器基础模型,其中大部分是从谷歌趋势中导出的搜索兴趣时间序列。我们表明,即使是使用我们的PreDcT架构的相对较小的225M参数预训练模型,在不同领域和粒度的各种公共基准上也显示出令人印象深刻的零样本性能。PreDcT(ZS)模型可以与最近在目标数据集上专门训练的最先进的监督基线的性能相媲美。这是显著的,因为PreDcT(Z

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值