当前位置: 首页 > news >正文

强化学习框架VeRL全面解析(架构、调试、修改与应用)

强化学习框架VeRL全面解析

  • 当前的RL框架一览
  • VeRL的特点
  • VeRL分布式框架的实现新范式
  • VeRL调试方法
    • 安装和启动分布式调试插件
    • 设置调试启动参数
  • 25.06 - update&plan
    • 多轮强化学习训练支持
    • MoE模型训练支持
    • planned
  • 参考内容

当前的RL框架一览

字节系:
VeRL
CURE(RL for coding)

阿里系:
ROLL淘天爱橙团队

智谱:
slime

huggingface:
trl

VeRL的特点

由于强化学习算法在LLM时代中,对与“灵活性”和“高效性”的双重需求,VeRL应运而生。
其主要特点包括:【Single-controller、multi-controller 以及Hybrid Engine】

  • 引入single-controller的范式思想;将复杂的RL workflow简化为20几行代码;
    在这里插入图片描述
  • 引入multi-Controller的思想:实现高效数据并行、训练和生成:
    在这里插入图片描述
    针对RL当中各个operator之间效率的优化,VeRL引入了Hybrid Engine
    其中包括:offloading&reloading;并行策略切换
    在这里插入图片描述
    在这里插入图片描述

VeRL分布式框架的实现新范式

分布式框架的实现思路主要有两种:
single-controller:一个中心controller来控制所有的worker进行对应任务;【single controller来掌控全局】
multi- controller:每一个worker独立控制自身,通过其他方式实现并行,例如数据并行,每个worker之间通过通信的方式汇总并行数据。【通过worker间通信来协调】
在这里插入图片描述
两种方案各有优略:
在这里插入图片描述
新范式Hybrid Flow,提出了Hybrid Controller思路:结合Single- Controller和Multi-controller。
数据调动上灵活的中央控制+在大规模分布式计算上实现高效的分布式通信:通过一个Single- Controller进行全局的控制,而具体的生成和计算交给muliti-controller

single-controller 通过远程进程调用PRC来控制multi-controller
在这里插入图片描述
通过@register装饰器,对multi- controller进一步进行优化。

VeRL调试方法

安装和启动分布式调试插件

首先,由于VeRL采用Ray进行分布式运行,因此传统的基于vscode的调用方法无法生效,需要安装插件Ray distributed debugger

官方使用说明

插件安装后确保需要debug的环境中安装了ray debug所需要的依赖,如下:
代码ide: Visual Studio Code
ray[default] >= 2.9.1
debugpy >= 1.8.0

环境配置:
conda create -n myenv python=3.9
conda activate myenv
pip install "ray[default]" debugpy

在这里插入图片描述
插件安装成功后会出现下图2中左下角1处 图标,然后点击2处 add cluster,在3处 添加服务器集群地址和端口号,ray默认地址 127.0.0.1:8265 (可Enter直接添加此地址)
在这里插入图片描述
此时在集群Cluster未启动的情况下显示如下的connecting状态即为插件配置启动成功
在这里插入图片描述
然后启动ray

ray start --head

在这里插入图片描述

设置调试启动参数

在代码中需要调试的地方设置breakpoint()
⚠️注意:添加断点位置的函数/类,必须有@ray.remote()装饰器,例如:
在这里插入图片描述
然后直接用bash启动sh脚本,脚本中用python调用,即可,可以用如下代码测试:

bash examples/grpo_trainer/run_qwen3-0.6b.sh

插件自动捕捉到断点之后就可以像正常python程序一样调试了:
在这里插入图片描述

25.06 - update&plan

多轮强化学习训练支持

异步引擎,辅助LLM多轮对话强化学习优化,解决之前同步方案的效率问题;
在这里插入图片描述

MoE模型训练支持

优化Megatron
采用多node推理
参数切片管理,用于megatron和inference引擎。
在这里插入图片描述

planned

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

参考内容

http://www.lryc.cn/news/591948.html

相关文章:

  • 云原生 DevOps 实战之Jenkins+Gitee+Harbor+Kubernetes 构建自动化部署体系
  • 【unitrix】 6.8 加一运算(add_one.rs)
  • 【问题解决】npm包下载速度慢
  • 游戏盾在非游戏行业的应用:跨界守护网络安全的新利器
  • Rust实战:高效对接Postman API
  • ArcGIS Pro+PS 实现地形渲染效果图
  • 谷歌地球与ArcGIS Pro查看三维地形
  • SpringMVC + Tomcat10
  • Git使用与管理
  • 时序数据库 Apache IoTDB 实战:基于 Kubernetes 的部署运维全指南
  • 百度权重提升技巧分析:从底层逻辑到实战策略
  • Prompt:开启与AI高效对话的钥匙
  • 客诉:危机到信任的重建
  • Python编程:从入门到实践
  • 前端基础之《Vue(23)—跨域问题》
  • 如何区别HTML和HTML5?
  • 格式转换Total Excel Converter:20 种格式XLS XLSX 批量转 PDFWord
  • 国产替代:ASP4644在电信通信设备中的测试与应用前景
  • 中国工业RFID前三品牌
  • 微型导轨在消费电子领域如何凸显高精度技术?
  • Spring介绍以及IOC和AOP的实现
  • 行为型设计模式:解释器模式
  • 2026python实战——如何利用海外代理ip爬取海外数据
  • ​​Docker 速通教程
  • 【Docker#2】容器历史发展 | 虚拟化实现方式
  • Delphi EDI 需求分析与对接指南
  • Docker 与 GPU 训练
  • 【Docker】在Linux环境下使用Dockerfile打包镜像(图文示例)
  • 深入浅出MyBatis缓存:如何让数据库交互飞起来
  • 无标记点动捕:如何突破传统娱乐边界,打造沉浸式交互体验