Uncertainty Quantification for In-Context Learning of Large Language Models

828 篇文章

已下架不支持订阅

本文探讨了大型语言模型(LLM)在上下文学习中的预测不确定性,提出了分解模型不确定性为任意不确定性(由演示引起)和认知不确定性(模型配置模糊性)的新方法。该方法无监督且易于集成,通过实验验证了其有效性和优越性。未来工作将扩展到更多数据和任务的不确定性量化。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

本文是LLM系列文章,针对《Uncertainty Quantification for In-Context Learning of Large Language Models》的翻译。

大型语言模型上下文学习的不确定性量化

摘要

上下文学习已经成为大型语言模型(LLM)的一种突破性能力,并通过在提示中提供一些与任务相关的演示,彻底改变了各个领域。然而,LLM反应中值得信赖的问题,如幻觉,也被积极讨论。现有的工作致力于量化LLM反应中的不确定性,但它们往往忽视了LLM的复杂性和上下文学习的独特性。在这项工作中,我们深入研究了与上下文学习相关的LLM的预测不确定性,强调这种不确定性可能源于所提供的演示(任意不确定性)和与模型配置相关的模糊性(认知不确定性)。我们提出了一种新的公式和相应的估计方法来量化这两种类型的不确定性。所提出的方法提供了一种无监督的方式,以即插即用的方式理解上下文学习的预测。进行了大量的实验来证明分解的有效性。代码和数据可在以下位置获取。

1 引言

2 上下文学习的不确定性分解

3 相关工作

4 实验

</

已下架不支持订阅

多任务学习利用不确定性来加权损失用于场景几何和...... 多任务学习是一种机器学习方法,旨在通过同时学习多个相关的任务来提高模型的性能。在场景几何和...中,我们可以利用多任务学习来同时学习场景几何和...两个任务,并利用不确定性来加权损失函数。 不确定性是指模型对于不同任务的预测结果的置信度或可靠性。通过测量模型的不确定性,我们可以了解模型对于不同任务的自信程度,并根据其不确定性来决定在损失函数中的权重。 具体来说,在训练过程中,我们可以采用如下的多任务学习框架:首先,我们定义两个任务,即场景几何和...。然后,我们构建一个网络模型,该模型有两个分支,分别用于处理场景几何和...任务。每个分支都有自己的损失函数,用于衡量模型在相应任务上的性能。 在计算总体损失时,我们可以使用不确定性来加权每个任务的损失函数。一种常见的方法是使用模型的输出结果的方差或置信度来表示不确定性。如果模型对于某个任务有较高的置信度,我们可以将该任务的损失函数的权重设为较大值;相反,如果模型对于某个任务的置信度较低,我们可以将该任务的损失函数的权重设为较小值。 通过利用不确定性加权损失函数,我们可以让模型在训练过程中更加关注自身较为确定的预测任务,从而提高模型在这些任务上的性能。这种方法可以提高多任务学习的效果,使得模型能够更好地学习场景几何和...两个任务。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值