Reinforcement Learning for Reasoning in Large Language Models with One Training Example

在这里插入图片描述

主要内容

  1. 研究背景:强化学习与可验证奖励(RLVR)在提升大语言模型(LLMs)推理能力方面取得显著进展,但RLVR数据方面的研究相对不足,如训练数据的数量、质量和有效性等问题有待探索。
  2. 研究方法
    • 采用GRPO作为强化学习算法,其损失函数包含策略梯度损失、KL散度损失和熵损失。
    • 提出基于历史方差分数的数据选择方法,通过训练模型获取每个示例的历史训练准确率列表,按其方差对数据进行排序。
  3. 实验设置
    • 模型:以Qwen2.5 - Math - 1.5B为主进行实验,并验证了Qwen2.5 - Math - 7B、Llama - 3.2 - 3B - Instruct和DeepSeek - R1 - Distill - Qwen - 1.5B等模型。
    • 数据集:从DeepScaleR - Preview - Dataset中随机选取1209个示例作为数据选择的实例池(DSR - sub),并使用MATH训练集进行对比。
    • 训练与评估:
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值