Towards Better Multi-task Learning: A Framework for Optimizing Dataset Combinations in LLM

本文是LLM系列文章,针对《Towards Better Multi-task Learning: A Framework for Optimizing Dataset Combinations in Large Language Models》的翻译。

迈向更好的多任务学习:一个优化大型语言模型中数据集组合的框架

摘要

为了有效地选择最佳的数据集组合来提高大型语言模型中的多任务学习(MTL)性能,我们提出了一种利用神经网络预测最佳数据集组合的新框架。该框架迭代地优化选择,大大提高了效率,同时与模型、数据集和领域无关。通过在四个任务(命名实体识别、关系提取、事件提取和文本分类)的12个生物医学数据集上的实验,我们证明了我们的方法有效地识别了更好的组合,即使是从人类的角度来看似乎没有希望的任务。这验证了我们的框架为最大化MTL潜力提供了一个有前景的解决方案。

1 引言

2 相关工作

3 框架

4 实验设置

5 结果

6 结论

我们提出了一种新颖而简单的框架来解决为多任务学习选择最佳数据集组合的挑战。通过在反馈循环中迭代地改进这些组合,我们朝着在未来完全释放MTL的潜力迈出了重要的一步。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值