当前位置: 首页 > news >正文

[分布式并行] 流水线并行 PP(NaivePP/GPipe/F-then-B/PipeDream/1F1B)

前三篇文章分别介绍了 EPDPTP

  • EP [论文品鉴] DeepSeek V3 最新论文 之 DeepEP
  • DP [分布式并行策略] 数据并行 DP/DDP/FSDP/ZeRO
  • TP [分布式并行策略] 张量并行 TP

接下来会尽量做到由浅入深的介绍 MP 中的 PP,既 流水线并行策略

Naive PP

首先 PP流水线并行,是将模型 按层 进行拆分,与 DP(切数据) 和 TP(层内切张量) 进行互补。

朴素 Naive的做法是:

  • 将模型按(layer)切分为多个阶段(stage),每个stage(可以包含多个layer)部署到不同设备
    在这里插入图片描述
  • 单个batch前向传播stage顺序执行,如下表所示,GPU0执行完本设备stage前向传播后,将中间变量激活值传给GPU1,GPU1再执行,直到GPU3完成整个batch前向传播
  • 计算得到loss后,立即开始反向传播,GPU3执行反向传播得到梯度后,GPU2再执行,直到GPU0完成整个batch反向传播
  • 所有设备都得到各自梯度后,再统一进行参数更新
timeline012345678
GPU3FWDBWDUPDATE
GPU2FWDBWDUPDATE
GPU1FWDBWDUPDATE
GPU0FWDBWDUPDATE

可以看到 Navie PP 有两个主要问题:

  1. 同一时刻,其实只有一个设备在进行计算(和单GPU没有任何区别),其余设备
    均处于空闲状态,如下图所示,有大量空闲状态,也就形成了气泡,资源利用率极低
    在这里插入图片描述

  2. 数据生命周期被拉长,导致显存占用率高,如下图所示,为了在反向传播过程中完成计算,不得不将激活值等数据进行缓存;例如对于GPU0,要等待几乎整轮前向+反向传播完成,才可以释放这部分显存
    在这里插入图片描述

GPipe

GPipe 论文:https://arxiv.org/abs/1811.06965

GPipe 针对上面 Naive PP 的主要问题分别提出了两个解决方案:

(1)针对气泡问题,也就是GPU计算空闲,提出了micro-batch方案,也就是把mini-batch拆分成更小的micro-batch

下面以拆成4份的micro-batch为例,当GPU0完成第一个微批次得到激活值之后,会同时做两件事:①首先会立即把激活值传递给GPU1,这样GPU1就可以立即开始进行前向传播 ②同时GPU0也会立即进行第二个微批次的计算;以此类推,这样极大的提高了设备的并行度(例如在时刻3时,4个设备都在计算),降低了设备空闲时间,减小了气泡(反向传播也是一样)

timeline01234567891011121314
GPU3F1F2F3F4B4B3B2B1UPDATE
GPU2F1F2F3F4B4B3B3B1UPDATE
GPU1F1F2F3F4B4B3B2B1UPDATE
GPU0F1F2F3F4B4B3B2B1UPDATE

相比于Naive PP气泡GPipe的气泡小了很多
在这里插入图片描述
(2)针对数据生命周期被拉长,导致显存占用率高的问题,提出了重计算方案,也就是把激活值丢掉,在需要用的时候重新计算(也就是在backward的时候,先计算一遍激活值)

PipeDream

PepeDream 论文:https://arxiv.org/pdf/1806.03377

虽然GPipe气泡问题进行了优化,但也只能说是在一定程度上减小了气泡,无法进一步减少甚至消除气泡,主要是受限于F-then-B(先forward然后再backward然后聚集梯度更新参数)这种架构。

现在看看 PipeDream 如何进一步解决 气泡 问题:

首先,如果把前向传播和反向传播想象轨道上的火车,那么不论Naive PP(一辆)还是GPipe(一批)其实都是先开过去再开回来(阶段分离);

PipeDream提出了另一种方式,也就是 1F1B,通过调整轨道上火车调度策略 让前向与反向传播的小火车,可以持续的相向而行(打破阶段分离);

下面是 PipeDream 论文中的原图,可以看到,1F1B 的核心思想就是 F后紧接着执行 B 然后紧接着执行 F 然后 B 也就是 1F1B1F1B1F...,尽最大可能的减少了 气泡

在这里插入图片描述
整个调度策略可以分为两个阶段:

  • startup 阶段:和 GPipemicro-batch 类似
  • steady 阶段:F后立即进行B,一段时间后就可以完全跑满GPU,几乎没有任何气泡

但是问题来了,steady 都乱成这样了,那什么时候聚集梯度、怎么更新参数呢?

PipeDream 设计了两个东西:weight stashvertical sync

先看一下 weight stash,对于每个GPU来说,它独立处理一个stage,但 1F1B 的困境在与,某个时刻不同GPU在同时处理不同 mini-batch前向反向传播

其中 反向传播 依赖 前向传播激活值;而 激活值 又依赖于 前向传播 时的 模型weight

但如果不管不顾更新参数的话,很可能出现 反向传播 时,其 模型参数 已经被更新过了,这样算出来的 梯度 就完全不对了,所以根本问题就是 权重 weight版本不一致

所以weight stash做的事情就是,在每个mini-batch开始前,对其分配一个version版本号,这样该mini-batch后续的所有操作,都建立在整个version上,同时对于stash 暂存 一份 这个版本的权重weight,当该mini-batch进行反向传播时,使用对应版本权重weight

所以,weight stash 实现了 前向/反向 传播过程中中的 一致性,可以比喻成 水平方向一致性

而另一个维度 垂直方向,也就是多GPU间参数更新一致性,就需要靠 vertical sync 确保 同一个 mini-batch 的数据,即使在不同设备上,也要使用 相同版本参数

其底层也通过 mini-batch 进入 stage-0 时的 版本号 实现的,该 版本号 会绑定到该 mini-batch整个生命周期

Megatron-LM

Megatron-LM 的论文:https://arxiv.org/pdf/2104.04473

PipeDream1FB 已经很牛了,但是大佬们依然要求不满足,Megatron-LM 又提出了更牛的 真·交错式 终极体 1F1B

主要解决了啥问题呢,如下图所示,虽然四个GPU实现了1F1B,单其实在某些时刻,特别是startup 阶段,依然存在着 等待依赖

相比于 PipeDream 将模型各层,连续的分给各个 stage,例如:stage1包括1/2/3/4层,stage2包括5/6/7/8层;

Megatron-LM采取交错式分层,例如:stage1包括1/2/7/8层,也就是 打破了分层的连续性

在这里插入图片描述

而带来的好处就是,正常情况下,7/8 需要在 GPU1 等待它的 5/6 算完后才能进行,但此时 GPU0 一直在空闲的,所以当 GPU1 执行完 5/6 后,由 GPU0 立即进行 7/8 的计算,这样就减少了2个GPU等待时间。

此外,还有很多 PP 策略,例如:1F1B-FlushDeepSeek开源周推出的DualPipeChimera 等等等等,有时间再研究吧,学不完根本学不完…

http://www.lryc.cn/news/576844.html

相关文章:

  • MySQL数据库的增删改查
  • 茶叶根茎分割数据集介绍与应用
  • RNN人名分类器案例
  • Android大图加载优化:BitmapRegionDecoder深度解析与实战
  • Ubuntu20 编译安装 Redis7.2.4
  • SAP顾问职位汇总(第26周)
  • 大模型岗位面试常见问题及解答
  • python+uniapp基于微信小程序的多人协同办公系统
  • 人工智能之数学基础:如何判断正定矩阵和负定矩阵?
  • chapter02_AbstractBeanfactory与模板方法
  • python sklearn 机器学习(1)
  • Ragflow本地部署和基于知识库的智能问答测试
  • 【Typst】自定义彩色盒子
  • 医疗AI智能基础设施构建:向量数据库矩阵化建设流程分析
  • 如何搭建基于RK3588的边缘服务器集群?支持12个RK3588云手机
  • Qt QGraphics简述及例程 - QGraphicsView、QGraphicsScene和QGraphicsItem
  • 深入剖析Nacos服务发现与注册,及如何基于LoadBalancer实现负载均衡
  • #华为昇腾#华为计算#昇腾开发者计划2025#
  • Redis分布式锁核心原理源码
  • #华为鲲鹏#华为计算#鲲鹏开发者计划2025#
  • Transformer结构与代码实现详解
  • 【电路笔记 TMS320F28335DSP】TI SCI (增强型的UART) 点对点异步串行通信接口
  • 【OpenGL学习】(八)图形变换
  • Oauth2 自定义设置token过期时间
  • 状态机编程实战 | 如何更优雅地处理字符串
  • 全新大模型开源,腾讯(int4能打DeepSeek) Vs 谷歌(2GB运行多模态)
  • Gemini-CLI:谷歌开源的命令行AI工具,重新定义开发者工作流
  • Ubuntu22 安装 RTX 5070 Ti Nvidia Driver 驱动
  • 自学嵌入式 day27 进程
  • mac系统快捷键及命令安装