
Time series
文章平均质量分 69
UnknownBody
AI博士,最近一直follow大模型相关论文,每日会更新学术界论文的进展。
展开
-
Are Large Language Models Useful for Time Series Data Analysis?
时间序列数据在医疗保健、能源和金融等不同领域发挥着至关重要的作用,在这些领域,分类、异常检测和预测等任务对于明智的决策至关重要。最近,大型语言模型(LLM)因其处理复杂数据和提取有意义见解的能力而受到关注。本研究通过比较LLM与非LLM方法在三个任务(分类、异常检测和预测)中的性能,调查LLM是否对时间序列数据分析有效。通过使用GPT4TS Zhou等人[2023]和Liu等人[2024]的自回归模型进行的一系列实验,我们评估了它们在基准数据集上的性能,并评估了它们的准确性、精确度和泛化能力。原创 2025-02-08 09:00:00 · 139 阅读 · 0 评论 -
Retrieval-Augmented Diffusion Models for Time Series Forecasting
虽然时间序列扩散模型在最近的许多研究中受到了相当大的关注,但现有模型的性能仍然高度不稳定。限制时间序列扩散模型的因素包括时间序列数据集不足和缺乏指导。为了解决这些局限性,我们提出了一种检索增强时间序列扩散模型(RATD)。RATD的框架由两部分组成:基于嵌入的检索过程和参考引导的扩散模型。在第一部分中,RATD从数据库中检索与历史时间序列最相关的时间序列作为参考。第二部分利用参考文献指导去噪过程。我们的方法允许利用数据库中有意义的样本来帮助采样,从而最大限度地利用数据集。原创 2024-11-06 09:30:00 · 378 阅读 · 0 评论 -
A Federated Large Language Model for Long-Term Time Series Forecasting
集中式环境中的长期时间序列预测在数据隐私、通信开销和可扩展性方面提出了独特的挑战。为了应对这些挑战,我们提出了 FedTime,这是一种专为长期时间序列预测而定制的联合大语言模型 (LLM)。具体来说,我们引入了具有微调和对齐策略的联合预训练LLM。在学习过程之前,我们采用 K 均值聚类将边缘设备或客户端划分为不同的集群,从而促进更有针对性的模型训练。我们还结合了通道独立性和修补功能,以更好地保留本地语义信息,确保保留重要的上下文细节,同时最大限度地降低信息丢失的风险。原创 2024-09-30 09:15:00 · 281 阅读 · 0 评论 -
A Comprehensive Evaluation of Large Language Models on Temporal Event Forecasting
最近,大型语言模型(LLM)在各种数据挖掘任务中表现出了巨大的潜力,例如知识问答、数学推理和常识推理。然而,法学硕士在时间事件预测方面的推理能力尚未得到充分探索。为了系统地研究他们在时间事件预测方面的能力,我们对基于LLM的时间事件预测方法进行了综合评估。由于缺乏涉及图和文本数据的高质量数据集,我们首先构建一个基准数据集,命名为MidEast-TE-mini。基于该数据集,我们设计了一系列基线方法,其特点是各种输入格式和检索增强生成(RAG)模块。原创 2024-09-29 09:30:00 · 192 阅读 · 0 评论 -
UrbanGPT: Spatio-Temporal Large Language Models
时空预测旨在预测和深入了解城市环境在时间和空间上不断变化的动态。其目的是预测城市生活各个方面的未来模式、趋势和事件,包括交通、人口流动和犯罪率。尽管已经做出了许多努力来开发用于对时空数据进行准确预测的神经网络技术,但重要的是要注意,这些方法中的许多在很大程度上依赖于具有足够的标记数据来生成精确的时空表示。不幸的是,数据稀缺的问题在实际的城市传感场景中普遍存在。在某些情况下,从下游场景中收集任何标记数据变得很有挑战性,这进一步加剧了问题。原创 2024-05-17 15:18:12 · 232 阅读 · 0 评论 -
How Can Large Language Models Understand Spatial-Temporal Data
虽然大型语言模型(LLM)在自然语言处理和计算机视觉等任务中占据主导地位,但利用它们的能力进行时空预测仍然具有挑战性。连续文本和复杂时空数据之间的差异阻碍了这一应用。为了解决这个问题,本文介绍了STG-LLM,这是一种为LLM提供时空预测能力的创新方法。我们通过提出:1)STG tokenizer来解决数据不匹配问题:这种时空图tokenizer将复杂的图数据转换为捕获空间和时间关系的简洁token;2) STG适配器:这种由线性编码和解码层组成的极简主义适配器,弥合了token数据和LLM理解之间的差距。原创 2024-02-29 14:46:24 · 516 阅读 · 0 评论 -
AutoTimes: Autoregressive Time Series Forecasters via Large Language Models
由于大规模时间序列的可用性有限以及可扩展预训练的开发不足,时间序列的基础模型尚未完全开发。基于时间序列和自然语言的相似序列结构,越来越多的研究证明了利用大型语言模型(LLM)处理时间序列的可行性。然而,现有的方法可能会忽视时间序列和自然语言的一致性,导致LLM潜力的利用不足。为了充分利用从语言建模中学习到的通用token转换,我们建议AutoTimes将LLM重新用作自回归时间序列预测器,这与LLM的获取和利用一致,而无需更新参数。原创 2024-03-13 16:10:50 · 387 阅读 · 0 评论 -
Large Language Models for Time Series: A Survey
大型语言模型在自然语言处理和计算机视觉等领域有着重要的应用。LLM超越了文本、图像和图形,在分析时间序列数据方面具有巨大潜力,有利于气候、物联网、医疗保健、交通、音频和金融等领域。这篇调查论文对利用LLM的力量进行时间序列分析所采用的各种方法进行了深入的探索和详细的分类。我们解决了弥合LLM的原始文本数据训练与时间序列数据的数值性质之间的差距这一固有挑战,并探索了将LLM中的知识迁移和提取到数值时间序列分析的策略。原创 2024-04-02 10:01:05 · 395 阅读 · 1 评论 -
Time Series Data Augmentation for Deep Learning: A Survey
深度学习最近在许多时间序列分析任务中表现出色。深度神经网络的优越性能在很大程度上依赖于大量的训练数据,以避免过拟合。然而,许多现实世界时间序列应用的标记数据可能会受到限制,例如医学时间序列中的分类和AIOps中的异常检测。作为一种提高训练数据大小和质量的有效方法,数据增强对于深度学习模型在时间序列数据上的成功应用至关重要。在本文中,我们系统地回顾了时间序列的不同数据增强方法。我们提出了综述方法的分类法,然后通过强调它们的优势和局限性为这些方法提供了结构化回顾。原创 2022-09-05 10:20:52 · 1182 阅读 · 0 评论 -
TIME-LLM: TIME SERIES FORECASTING BY REPROGRAMMING LARGE LANGUAGE MODELS
时间序列预测在许多现实世界的动态系统中具有重要意义,并得到了广泛的研究。与自然语言处理(NLP)和计算机视觉(CV)不同,单个大型模型可以处理多个任务,时间序列预测模型通常是专门的,需要针对不同的任务和应用进行不同的设计。虽然预训练的基础模型在NLP和CV领域取得了令人印象深刻的进步,但它们在时间序列领域的发展受到数据稀疏性的限制。最近的研究表明,大型语言模型(llm)对复杂的符号序列具有强大的模式识别和推理能力。然而,挑战仍然存在,如何有效地将时间序列数据和自然语言的模式结合起来,以利用这些功能。原创 2023-10-09 10:09:40 · 1494 阅读 · 0 评论 -
Data Augmentation techniques in time series domain: A survey and taxonomy
随着深度学习生成模型的最新进展,利用它们在时间序列领域的出色表现并不需要很长时间。用于处理时间序列的深度神经网络在很大程度上依赖于用于训练的数据集的广度和一致性。这些类型的特征在现实世界中通常并不丰富,它们通常是有限的,并且通常具有必须保证的隐私约束。因此,一种有效的方法是使用数据增强(DA)技术,通过添加噪声或置换以及生成新的合成数据来增加数据的数量。它系统地回顾了该领域的最新技术,概述了所有可用的算法,并提出了最相关研究的分类。将评估不同变体的效率;原创 2022-09-01 15:05:40 · 737 阅读 · 0 评论 -
Large Language Model Guided Knowledge Distillation for Time Series Anomaly Detection
由于缺乏可用的注释,自监督方法在时间序列异常检测中获得了突出地位。然而,它们通常需要大量的训练数据来获取可推广的表示图,这与少数可用样本的场景相冲突,从而限制了它们的性能。为了克服这一限制,我们提出了AnomalyLLM,这是一种基于知识蒸馏的时间序列异常检测方法,其中训练学生网络以模仿在大规模数据集上预训练的基于大型语言模型(LLM)的教师网络的特征。在测试阶段,当教师和学生网络的特征之间的差异很大时,就会检测到异常。为了避免学生网络学习教师网络的异常样本特征,我们设计了两个关键策略。原创 2024-02-29 10:54:59 · 636 阅读 · 0 评论 -
A Survey on Time-Series Pre-Trained Models
时间序列挖掘在实际应用中显示出巨大的潜力,是一个重要的研究领域。基于大量标记数据的深度学习模型已成功用于TSM。然而,由于数据注释成本的原因,构建大规模标记良好的数据集是困难的。近年来,预训练模型由于其在计算机视觉和自然语言处理方面的卓越表现,逐渐引起了时间序列领域的关注。在这项综述中,我们对时间序列预训练模型(TS-PTM)进行了全面的回顾,旨在指导对TS-PTM的理解、应用和研究。具体来说,我们首先简要介绍TSM中使用的典型深度学习模型。然后,我们根据预训练技术对TS-PTM进行了概述。原创 2023-07-19 17:11:09 · 1102 阅读 · 0 评论 -
Position Paper: What Can Large Language Models Tell Us about Time Series Analysis
时间序列分析对于理解各种现实世界系统和应用程序中固有的复杂性至关重要。尽管大型语言模型(LLM)最近取得了重大进展,但配备时间序列分析功能的通用人工智能(AGI)的开发仍处于初级阶段。大多数现有的时间序列模型在很大程度上依赖于领域知识和广泛的模型调整,主要集中在预测任务上。在本文中,我们认为当前的LLM有可能彻底改变时间序列分析,从而促进高效决策,并朝着更普遍的时间序列分析智能形式迈进。这种进步可以释放广泛的可能性,包括模态转换和时间序列问答。原创 2024-04-05 13:45:36 · 147 阅读 · 0 评论 -
A decoder-only foundation model for time-series forecasting
受自然语言处理(NLP)大型语言模型最新进展的启发,我们设计了一个用于预测的时间序列基础模型,该模型在各种公共数据集上的开箱即用零镜头性能接近于每个单独数据集的最先进监督预测模型的准确性。我们的模型基于在大型时间序列语料库上预训练补丁解码器风格的注意力模型,可以在不同的预测历史长度、预测长度和时间粒度上很好地工作。我们使用大约1B个时间点的大型预训练语料库来训练用于时间序列预测的仅解码器基础模型,其中大部分是从谷歌趋势中导出的搜索兴趣时间序列。原创 2023-10-20 15:57:08 · 443 阅读 · 0 评论 -
LSTPrompt: Large Language Models as Zero-Shot Time Series Forecasters by Long-Short-Term Prompting
时间序列预测(TSF)在现实世界中有着广泛的应用。提示脱离搁置的大型语言模型(LLM)展示了强大的零样本TSF功能,同时保持了计算效率。然而,现有的提示方法将TSF过于简化为语言下一个表征预测,忽略了其动态性质,并且缺乏与最先进的提示策略(如思想链)的集成。因此,我们提出了LSTPrompt,这是一种在零样本TSF任务中提示LLM的新方法。LSTPrompt将TSF分解为短期和长期预测子任务,并为每个任务定制提示。LSTPrompt指导LLM定期重新评估预测机制,以增强适应性。原创 2024-04-27 21:51:14 · 280 阅读 · 0 评论