当前位置: 首页 > news >正文

SPARKLE:深度剖析强化学习如何提升语言模型推理能力

摘要:强化学习(Reinforcement Learning,RL)已经成为赋予语言模型高级推理能力的主导范式。尽管基于 RL 的训练方法(例如 GRPO)已经展示了显著的经验性收益,但对其优势的细致理解仍然不足。为了填补这一空白,我们引入了一个细粒度的分析框架,以剖析 RL 对推理的影响。我们的框架特别研究了被认为可以从 RL 训练中受益的关键要素:(1)计划遵循和执行,(2)问题分解,以及(3)改进的推理和知识利用。通过这个框架,我们获得了超越单纯准确率的见解。例如,为模型提供明确的分步计划,令人惊讶地在最具挑战性的基准测试中降低了性能,然而经过 RL 调优的模型表现出更强的鲁棒性,其性能下降幅度明显小于基础模型。这表明 RL 可能不是主要增强模型执行外部计划的能力,而是赋予模型制定和遵循更适合自己推理过程的内部策略的能力。相反,我们观察到 RL 增强了模型将提供的知识整合到其推理过程中的能力,从而在各种任务中实现了性能提升。我们还研究了难度,通过开发利用难题的新方法来改进训练。

本文目录

一、背景动机

二、核心贡献

三、实现方法

3.1 SPARKLE分析框架

3.2 多阶段RL训练

四、实验结果

4.1 RL提升性能的细粒度分析

4.2 多阶段RL的效果

五、结论与启示


一、背景动机

论文题目:Beyond Accuracy: Dissecting Mathematical Reasoning for LLMs Under Reinforcement Learning

论文地址:https://arxiv.org/pdf/2506.04723

近年来,强化学习(RL)已成为赋予语言模型高级推理能力的主导范式。尽管基于RL的训练方法(如GRPO)展现出显著的实证增益,但对其优势的细粒度理解仍显不足。现有评估大多局限于整体准确率,无法揭示RL在推理过程中的具体作用机制。例如,当模型在数学推理任务上表现提升时,我们无法确定这是由于计划执行能力增强、知识利用效率提高,还是问题分解策略优化所致。

为解决这一 问题,本文提出了SPARKLE分析框架,旨在系统剖析RL对推理能力的影响。该框架聚焦三个关键维度:(1)计划遵循与执行,(2)问题分解,(3)推理与知识利用改进。通过这一框架,研究人员能够超越简单的准确率指标,深入理解RL如何塑造模型的推理行为。

图1:强化学习基本框架示意图,展示智能体与环境的交互循环

二、核心贡献

  • SPARKLE分析框架:首次提出从计划执行、知识利用和问题分解三个维度评估推理能力的细粒度框架,克服了传统准确率指标的局限性。
  • 多阶段RL训练方法:设计了一种新的两阶段RL训练 pipeline,首先在多样化数学问题上进行RL训练,然后针对困难问题进行微调,并辅以部分解决方案提示,有效提升了模型在复杂任务上的表现。
  • 通过SPARKLE框架发现:
    • RL增强了模型制定和遵循内部策略的能力,而非执行外部提供的计划
    • RL显著提升了模型整合外部知识的能力,尤其在困难任务上效果更明显
    • 即使最终答案正确,模型在子问题解决链中仍存在推理缺陷

三、实现方法

3.1 SPARKLE分析框架

SPARKLE框架通过三个互补维度解析推理能力:

1. 计划遵循与执行 评估模型在有无外部计划指导下的表现差异。实验中为问题提供详细的步骤规划(如数学证明的关键步骤),比较模型在有/无计划条件下的准确率变化。

2. 知识利用 分离知识检索与推理过程,通过有无外部知识提供(如数学定理、公式)的对比实验,评估模型对知识的整合能力。

3. 子问题分解链 将复杂问题分解为一系列相互关联的子问题,要求模型逐步解决,定位推理失败的具体环节。例如,在解方程问题中,先要求模型确定变量范围,再求解具体值。

图2:语言模型推理能力评估示例,展示数学问题的分步解决过程

3.2 多阶段RL训练

研究采用两阶段训练策略:

  • 第一阶段:在40K多样化数学问题上使用GRPO算法进行RL训练
  • 第二阶段:针对第一阶段未解决的6.5K困难问题,采用三种策略进一步微调:
    • 仅使用困难问题
    • 混合难度问题
    • 困难问题+部分解决方案提示(提示中间步骤或关键提示)

四、实验结果

4.1 RL提升性能的细粒度分析

1. 计划遵循能力

  • 基础模型在提供外部计划时性能下降(在AIME24上从16.7%→16.7%,无提升)
  • RL调优模型表现出更强的稳健性,性能下降幅度显著减小(Stage 2模型在AIME24上仅从50.4%→47.9%)
  • 关键发现:RL增强的是模型制定内部策略的能力,而非执行外部计划的能力

2. 知识整合能力

  • 基础模型在提供外部知识时性能平均下降5.4%
  • RL调优模型在提供外部知识时性能平均提升4.2%
  • 知识增益随问题难度增加而显著提高(困难问题上增益达15.0%)

3. 子问题解决能力

所有模型在完整问题与子问题链上存在巨大性能差距:

  • 基础模型在AIME24上:完整问题准确率16.7% vs 子问题链准确率3.3%
  • RL调优模型在AIME24上:完整问题准确率50.4% vs 子问题链准确率17.5%
  • 关键发现:RL主要提升整体问题解决能力,但在细粒度子问题推理上仍有明显缺陷

4.2 多阶段RL的效果

对比不同训练策略的性能(Avg@8指标):

模型

AIME24

AMC23

MATH500

GSM8K

OlympiadBench

平均

基础模型

16.67

42.50

44.03

42.53

28.65

35.23

Stage 1

46.67

67.50

80.00

91.77

39.11

65.01

Stage 2-困难问题

41.67

65.94

80.50

92.45

37.39

63.59

Stage 2-混合难度

40.00

63.44

80.78

92.52

38.85

63.12

Stage 2-困难+提示

50.42

71.25

81.00

92.38

40.11

67.03

表1:不同训练策略下模型在各 benchmark 上的性能对比

结果显示,困难问题+部分解决方案提示的两阶段训练效果最佳,在最难的AIME24上达到50.42%的准确率,接近32B模型的性能水平。

五、结论与启示

本研究通过SPARKLE框架揭示了RL提升语言模型推理能力的细粒度机制,主要发现包括:

  • RL的核心优势:增强模型制定和执行内部策略的灵活性,而非遵循外部计划;提升知识整合能力,尤其在困难任务上效果显著。
  • 仍存挑战:即使RL调优模型,在子问题链解决上仍有明显缺陷,表明细粒度推理能力仍是未来研究的关键方向。
  • 实用启示:多阶段RL训练结合困难问题+提示策略可有效提升模型性能,为推理模型的训练提供了新范式。

未来工作可将SPARKLE框架扩展到数学以外的领域,并探索更有效的子问题推理增强方法,进一步推动语言模型推理能力的发展。

http://www.lryc.cn/news/593649.html

相关文章:

  • stm32继电器使用方法
  • 【RK3576】【Android14】UART开发调试
  • 从零开始学Tailwind CSS : 颜色配置原理与实践
  • EasyExcel使用
  • 创建套接字并bind的详细过程
  • 深度学习-线性神经网络
  • 深度学习Depth Anything V2神经网络实现单目深度估计系统源码
  • 短视频矩阵的未来前景:机遇无限,挑战并存
  • Maven常用知识总结
  • 代码随想录算法训练营第二十天|回溯part02
  • 电阻耐压参数学习总结
  • 动态规划——数位DP经典题目
  • 【深度学习-Day 38】破解深度网络退化之谜:残差网络(ResNet)核心原理与实战
  • 从0到1搭建一个Rag引擎(ollama+Qwen3)
  • 实现el-select下拉框,下拉时加载数据
  • Docker容器原理和启动策略
  • EP01:【Python 第一弹】基础入门知识
  • aosp15实现SurfaceFlinger的dump输出带上Layer详细信息踩坑笔记
  • 生成式人工智能实战 | 自回归模型详解与实现
  • Linux中添加重定向(Redirection)功能到minishell
  • QGIS和QGC软件的区别
  • LVS部署模式NAT集群案例
  • buildroot运行qemu进行pcie设备模拟,开发驱动的方式
  • 【学习记录】智能客服小桃(进度更新ing)
  • 测试计划(抽奖系统)
  • Redis Sentinel哨兵集群
  • STC增强型单片机寄存器 PWM EEPROM TMOD TCON
  • ElasticSearch:商品SKU+SPU实现join查询,设计及优化
  • JavaScript 中的继承
  • ADC选型设计