一、主要内容总结
- 模型介绍:小米开源了MiMo-VL-7B-SFT和MiMo-VL-7B-RL两个视觉语言模型,在通用视觉理解和多模态推理任务上表现出色。其中,MiMo-VL-7B-RL在40项评估任务中35项优于Qwen2.5-VL-7B,在OlympiadBench上得分59.4,超过参数达78B的模型,在GUI接地任务OSWorld-G上得分为56.1,甚至超越了UI-TARS等专业模型。
- 训练方法
- 四阶段预训练:消耗2.4万亿token,包括投影仪预热、视觉语言对齐、通用多模态预训练和长上下文监督微调。
- 混合策略强化学习(MORL):整合了可验证奖励(RLVR)和人类反馈强化学习(RLHF),结合了感知准确性、视觉接地精度、逻辑推理能力和人类偏好等多种奖励信号。
- 关键发现
- 预训练阶段融入高质量、长链思维(CoT)的推理数据对提升模型性能至关重要。</