当前位置: 首页 > news >正文

【知识】torchrun 与 torch.multiprocessing.spawn 的对比

转载请注明出处:小锋学长生活大爆炸[xfxuezhagn.cn]

如果本文帮助到了你,欢迎[点赞、收藏、关注]哦~

来自ChatGPT、DeepSeek

有点干,可仅做了解。

torchruntorch.multiprocessing.spawn 都是在 PyTorch 中用于并行化和分布式训练的工具,但它们在使用场景和实现方式上有所不同。

1. 用途和功能

  • torchrun:

    • 主要用于分布式训练,特别是在多机或多卡训练时。
    • torchrun 是 PyTorch 提供的一个命令行工具,它自动启动分布式训练环境并启动多个进程。通常用于在多个节点(例如,多个GPU或多个机器)上启动并行训练。
    • 它是 torch.distributed.launch 的替代品,提供更简洁的配置和更好的支持。
  • torch.multiprocessing.spawn:

    • 是一个 Python API,用于在单个机器(或单个进程)上启动多个子进程。这些子进程通常是用于在每个进程上运行不同的模型副本或进行数据并行。
    • spawn 是在单机多卡(multi-GPU)环境下进行训练时常用的工具,特别适用于分布式数据并行(torch.nn.DataParalleltorch.nn.parallel.DistributedDataParallel)。
    • 它允许你控制每个进程的启动,并且能确保每个进程有独立的 GPU 资源。

2. 实现方式

torchrun:

  • 它基于 torch.distributed,通常通过传递命令行参数来配置分布式环境。你只需指定 GPU 数量、节点数量、主节点等配置。
  • 它会自动配置并启动各个训练进程,并且处理进程间的通信
  • 命令行调用的示例:
# script.py
import torch
import torch.distributed as distdef main():dist.init_process_group(backend="nccl")rank = dist.get_rank()# 训练逻辑if __name__ == "__main__":main()
torchrun --nnodes=1 --nproc_per_node=8 --rdzv_id=1234 --rdzv_backend=c10d --master_addr="localhost" --master_port=29500 script.py

torch.multiprocessing.spawn:

  • 通过 Python 代码调用,每个进程都是通过 multiprocessing.spawn API 启动的。每个子进程可以执行不同的任务。
  • 它通常用来启动多个进程,并在每个进程上执行模型训练代码,能够在单机环境下利用多个 GPU。
  • 代码示例:
import torch
import torch.distributed as dist
from torch.multiprocessing import spawndef train_fn(rank, world_size, args):dist.init_process_group(backend="nccl",init_method="env://",world_size=world_size,rank=rank)# 训练逻辑if __name__ == "__main__":world_size = 4spawn(train_fn, args=(world_size, {}), nprocs=world_size)

3. 进程间通信

  • torchrun:

    • 自动设置进程间的通信和同步。它是基于 NCCL(NVIDIA Collective Communications Library)或 Gloo 进行通信,适合大规模分布式训练。
  • torch.multiprocessing.spawn:

    • 你需要手动设置通信(如使用 torch.nn.parallel.DistributedDataParalleltorch.distributed 来进行多进程间的数据同步和梯度更新)。
    • 更加灵活,但也需要开发者更细致的配置。

4. 跨节点支持

  • torchrun:

    • 支持跨节点训练,可以设置多个机器上的进程,适合大规模多机训练
  • torch.multiprocessing.spawn:

    • 通常用于单机多卡训练,不直接支持跨节点训练,更多的是集中在本地多个 GPU 上。

5. 效率影响

在 PyTorch 分布式训练中,torchrun 和 torch.multiprocessing.spawn 的底层通信机制(如 NCCL、Gloo)是相同的,因此两者的训练效率(如单步迭代速度)在理想配置下通常不会有显著差异。然而,它们的设计差异可能间接影响实际训练效率,尤其是在环境配置、资源管理和容错机制上。

1. 效率核心因素:无本质差异

  • 通信后端相同:无论是 torchrun 还是 spawn,底层均依赖 PyTorch 的分布式通信库(如 NCCL、Gloo),数据传输效率由后端实现决定,与启动工具无关。

  • 计算逻辑一致:模型前向传播、反向传播的计算逻辑完全由用户代码控制,与启动工具无关。

2. 间接影响效率的场景

场景 1:环境初始化效率

  • torch.multiprocessing.spawn

    • 需要手动初始化分布式环境(如 init_process_group),若配置错误(如端口冲突、IP 错误)可能导致进程启动延迟或失败。

    • 单机多卡场景下简单直接,但多机场景需手动同步 MASTER_ADDR 和 MASTER_PORT,易出错且耗时。

  • torchrun

    • 自动设置环境变量(如 RANKWORLD_SIZEMASTER_ADDR 等),减少配置错误风险。

    • 在多机训练中,通过参数(如 --nnodes--node_rank)快速配置,显著降低初始化时间。

结论torchrun 在复杂环境(多机)下初始化更高效,减少人为错误导致的延迟。


场景 2:资源管理与进程调度

  • torch.multiprocessing.spawn

    • 父进程直接管理子进程,若某个子进程崩溃,整个训练任务会直接终止(无容错)。

    • 资源分配完全由用户代码控制,缺乏动态调整能力。

  • torchrun

    • 支持弹性训练(需结合 torch.distributed.elastic),进程崩溃后可自动重启并恢复训练(需用户实现检查点逻辑)。

    • 提供更精细的进程监控和资源分配策略(如动态调整 WORLD_SIZE),减少资源闲置。

结论torchrun 在容错和资源利用率上更优,尤其在长时训练或不稳定环境中,能减少因故障导致的总时间浪费。


场景 3:日志与调试效率

  • torch.multiprocessing.spawn

    • 各进程日志独立输出,需手动聚合分析(如使用 torch.distributed 的日志工具)。

    • 错误堆栈可能分散,调试复杂。

  • `torchrun``

    • 提供统一的日志输出格式,自动聚合错误信息。

    • 支持通过 --redirect 参数重定向日志,便于定位问题。

结论torchrun 的日志管理更友好,减少调试时间,间接提升开发效率。

6. 选择建议

        如果是单机多卡训练,可以考虑使用 torch.multiprocessing.spawn。如果是分布式训练(尤其是跨节点),则推荐使用 torchrun,它能够简化配置和进程管理。

http://www.lryc.cn/news/545721.html

相关文章:

  • 深入了解 K-Means 聚类算法:原理与应用
  • Rust ~ Collect
  • C# 类型转换
  • [IP] DDR_FIFO(DDR3 用户FIFO接口)
  • 第三百七十二节 JavaFX教程 - JavaFX HTMLEditor
  • 蓝桥杯试题:DFS回溯
  • Lua | 每日一练 (4)
  • 每日一题——接雨水
  • java常见面试01
  • 算法-二叉树篇27-把二叉搜索树转换为累加树
  • C语言:51单片机 基础知识
  • olmOCR:使用VLM解析PDF
  • 数据结构(初阶)(七)----树和二叉树(堆,堆排序)
  • 图像分类项目1:基于卷积神经网络的动物图像分类
  • Kali Linux 2024.4版本全局代理(wide Proxy)配置,适用于浏览器、命令行
  • [Windows] 批量为视频或者音频生成字幕 video subtitle master 1.5.2
  • 不要升级,Flutter Debug 在 iOS 18.4 beta 无法运行,提示 mprotect failed: Permission denied
  • 介绍 torch-mlir 从 pytorch 生态到 mlir 生态
  • upload
  • InterHand26M(handposeX-json 格式)数据集-release >> DataBall
  • [Java基础] JVM常量池介绍(BeanUtils.copyProperties(source, target)中的属性值引用的是同一个对象吗)
  • `maturin`是什么:matu rus in python
  • spring boot整合flyway实现数据的动态维护
  • unity中使用spine详解
  • 14. LangChain项目实战1——基于公司制度RAG回答机器人
  • 利用STM32TIM自制延迟函数实验
  • 创建一个MCP服务器,并在Cline中使用,增强自定义功能。
  • Android Activity栈关系解析
  • java使用word模板填充内容,再生成pdf
  • 回归实战详细代码+解析:预测新冠感染人数