近日,阿里正式开源 QwenLong-L1-32B ——全球首个基于强化学习训练的长文本推理模型,凭借 13 万 Token 的上下文处理能力与 Claude-3.7-Sonnet-Thinking 平起平坐,却在开源生态与成本效率上甩开对手数个身位。
一同发布的,还有 DocQA-RL-1.6K,这是一个 RL 训练数据集,用以进行可验证的长上下文推理,包括 1.6K 文档问答 (DocQA) 问题,跨越数学、逻辑和多跳推理领域。
强化学习破解长文本推理密码
传统大模型在处理长文本时,往往面临注意力分散、上下文理解断层等挑战。
而 QwenLong-L1-32B 的创新之处,在于首次将强化学习引入长文本推理场景,构建起"渐进式上下文扩展"训练框架。
这个框架包括三个部分:
-
用于初始化稳健策略的热身监督微调(SFT) 阶段;
-
促进从短期到长期上下文的稳定适应的课程指导的 RL 阶段;
-
调整各个阶段的训练复杂性以激励策略探索的难度感知回顾性抽样机制。
这种设计使得模型在处理长达 131,072 个token 的文本时,仍能保持精准的上下文关联记忆。
在算法层面,阿里团队利用最新的 RL 算法 GRPO(Group Relative Policy Optimization)和DAPO(Direct Alignment Policy Optimization)集成了混合奖励函数,并结合基于规则和模型的二元结果奖励,以平衡精度和召回率。
这种突破得益于强化学习特有的"试错-反馈"机制,模型在训练中不断修正对长依赖关系的理解偏差,最终形成稳健的推理策略。
在七个长文本情境文档问答基准测试中,QwenLong-L1-32B超过OpenAI-o3-mini、Qwen3-235B-A22B等,性能与Claude-3.7-Sonnet-Thingking 相当。
生态赋能:开源方案加速产业落地
在开源策略上,阿里延续了其一贯的开放姿态。自 Qwen2.5 系列登顶 HuggingFace 下载榜首以来,其衍生模型已突破 9 万,形成全球最大开源模型族群。其中,Qwen3 更是与 DeepSeek-R1、o1、o3-mini、Grok-3 和 Gemini-2.5-Pro 等顶级模型表现相当。
此次发布的不仅是单个模型,更是一套完整的长文本推理解决方案。方案包含四个核心组件:高性能基础模型、优化训练数据集、创新训练方法论和标准化评估体系。
目前,模型代码、训练日志、评估工具等核心资源已全部上架 GitHub 和魔搭社区,开发者可基于 Apache 2.0 协议自由使用。
QwenLong-L1-32B 的横空出世,验证了强化学习在复杂推理任务中的巨大潜力,为小模型+强算法的技术路线提供了实证。
当强化学习的火炬点燃长文本推理的引擎,一个更智能、更高效的 AI 新时代正在加速到来。在这场长文本推理的终极战役中,中国大模型正从追随者蜕变为规则制定者。