project
ArenaRL - 通义与高德开源的开放域对比式强化学习方法
ArenaRL 是通义 DeepResearch 团队联合高德开源的,面向开放域智能体的对比式强化学习方法。ArenaRL通过引入锦标赛机制,将传统的绝对打分转变为组内相对排序...
ArenaRL是什么
ArenaRL 是通义 DeepResearch 团队联合高德开源的,面向开放域智能体的对比式强化学习方法。ArenaRL通过引入锦标赛机制,将传统的绝对打分转变为组内相对排序,用高效的种子单败淘汰赛拓扑结构,将计算复杂度控制在线性水平,有效解决开放域任务中因缺乏标准答案而导致的判别崩溃问题。ArenaRL 在学术基准测试中表现出色,在高德地图的真实业务场景中完成了落地验证,显著提升复杂任务的规划与执行能力。
ArenaRL的主要功能
-
优化开放域任务表现:ArenaRL通过对比式强化学习,解决开放域任务中因缺乏标准答案导致的传统强化学习瓶颈,助力智能体在复杂任务中找到更优解。
-
提升训练效率:ArenaRL采用种子单败淘汰赛机制,将计算复杂度控制在 线性水平,实现训练效率与效果的最佳平衡。
-
增强推理与规划能力:引入过程感知评估机制,能评估最终结果和审视思维链逻辑和工具调用的精准度,提升智能体的推理和规划能力。
-
支持多样化应用场景:在复杂出行规划、深度信息检索和通用写作等多场景中均表现出色,展现强大的任务泛化能力。
ArenaRL的技术原理
- 从绝对打分到相对排序:传统强化学习依赖于奖励模型对每个生成的轨迹打出绝对标量分数,这种方法在开放域任务中容易陷入判别崩溃。ArenaRL 创新性地引入相对排序机制,通过成对比较的方式,将奖励建模重构为组内相对排序问题,避免绝对打分的局限性。
- 锦标赛机制与种子单败淘汰赛:ArenaRL 采用锦标赛机制,让智能体针对同一指令生成一组候选方案,构建一个微型“竞技场”。通过种子单败淘汰赛的拓扑结构,ArenaRL 在将计算复杂度严格控制在 线性水平的同时,优势估计准确率能高度逼近全量循环赛,实现训练效率与效果的最佳平衡。
- 过程感知的评估机制:ArenaRL 能评估最终结果的质量,深入审视思维链(CoT)的逻辑严密性以及工具调用的精准度。这种过程感知的评估机制能帮助智能体在复杂任务中更好地权衡多维约束,提升推理和规划能力。
- 双向评分协议:为消除大模型作为裁判时的位置偏见,ArenaRL 采用双向评分协议。每次比较时,系统会交换两个候选方案的顺序进行评分,确保评估结果的公正性和细粒度。
- 开源数据与训练框架:ArenaRL 开源了完整的训练框架和全流程评测基准,包括 Open-Travel 和 Open-DeepResearch 两大基准数据集。为开发者提供丰富的训练和测试数据,降低使用门槛,推动开放域智能体的研究和应用。
ArenaRL的项目地址
- 项目官网:https://tongyi-agent.github.io/zh/blog/arenarl/
- GitHub仓库:https://github.com/Alibaba-NLP/qqr
- HuggingFace模型库:https://huggingface.co/papers/2601.06487
- arXiv技术论文:https://arxiv.org/pdf/2601.06487
ArenaRL的应用场景
- 复杂出行规划:ArenaRL 能为用户生成多条候选路线,通过相对比较筛选出最符合模糊需求(如人少、有遮阴、适合推婴儿车等)的最优路线。
- 长文本生成与信息检索:在长文本生成任务中,ArenaRL 能显著提升生成内容的指令遵循能力和可用性,避免因长度偏差导致的质量下降。
- 多工具协同任务:ArenaRL 通过评估思维链逻辑和工具调用的精准度,确保在多工具协同任务中高效完成复杂指令,避免不合理调用。
- 个性化推荐:在个性化推荐场景中,ArenaRL 从多个候选方案中筛选出最符合用户模糊且个性化需求(如适合约会、有江景露台)的选项。
- 开放域问答:在开放域问答中,ArenaRL 通过相对比较的方式从多个候选答案中筛选出最合理、最有用的答案,提升回答质量。