当前位置: 首页 > news >正文

Pytorch——多卡GPU训练与单卡GPU训练相互切换

部分深度学习网络默认是多卡并行训练的,由于某些原因,有时需要指定在某单卡上训练,最近遇到一个,这里总结如下。

目录

  • 一、多卡训练
    • 1.1 修改配置文件
    • 1.2 修改主训练文件
    • 1.3 显卡使用情况
  • 二、单卡训练
    • 2.1 修改配置文件
    • 2.2 显卡使用情况
  • 三、总结

一、多卡训练

1.1 修改配置文件

在这里插入图片描述

1.2 修改主训练文件

在这里插入图片描述
上面红框中代码解析:

if torch.cuda.is_available() and ngpu > 1:         # 当 torch.cuda.is_available() 为真且 ngpu > 1 时              model = nn.DataParallel(model, device_ids=list(range(ngpu)))

model = nn.DataParallel(model, device_ids=list(range(ngpu))):

此行代码创建了一个 DataParallel包装器,用于在多个GPU上并行处理神经网络模型。DataParallel 是 PyTorch 中的一个模块,它可以将输入数据分割并发送到不同的GPU进行处理,然后汇总结果。

model:要并行化的神经网络模型。

device_ids=list(range(ngpu)):指定要使用的GPU。在这里,它使用了所有可用的GPU,数量上限为指定的 ngpu。

1.3 显卡使用情况

在这里插入图片描述

二、单卡训练

2.1 修改配置文件

在这里插入图片描述在这里插入图片描述

2.2 显卡使用情况

修改好后开始训练,查看显卡使用情况:

在这里插入图片描述

三、总结

以上就是多卡GPU训练与单卡GPU训练相互切换的操作过程,希望能帮到你,谢谢!

http://www.lryc.cn/news/250184.html

相关文章:

  • Github项目-CNNResnet9-残差神经网络水果多分类项目
  • 学习感悟一己之言
  • 【设计模式-2.3】创建型——原型模式
  • 八大插入算法(有注释)
  • 【2】基于多设计模式下的同步异步日志系统
  • npm管理发布包-创建与发布
  • 基于Spring,SpringMVC,MyBatis的校园二手交易网站
  • 酒店 KPI绩效考核指标及应用
  • WordPress两种方法实现上传媒体图片文件自动重命名
  • TZOJ 1405 An easy problem
  • SpringBoot+mysql+vue实现大学生健康档案管理系统前后端分离
  • CCC联盟数字车钥匙(三)——UWB MAC时间网格同步及Hopping
  • 一周上手 steam搬砖项目或成2024年最受欢迎副业
  • java数据结构(哈希表—HashMap)含LeetCode例题讲解
  • 快速了解ChatGPT(大语言模型)
  • 计算机软件的分类
  • 数据库应用:Ubuntu 20.04 安装MongoDB
  • 服务器配置 jupyter lab,并在本地浏览器免密登陆
  • WebUI自动化学习(Selenium+Python+Pytest框架)002
  • miot-plugin-sdk. npm install安装失败
  • 抓取微信好友列表信息
  • 创建JDK8版本的SpringBoot项目的方法
  • Python【走出棋盘】
  • 软件工程 - 第8章 面向对象建模 - 2 静态建模
  • ESXi vSAN 整合多主机磁盘
  • 手机充电 显示连接耳机 (充电没外放声音) 并且充电速度很慢
  • 前端开发的前世今生
  • CAP概念和三种情况、Redis和分布式事务的权衡
  • npm pnpm yarn(包管理器)的安装及镜像切换
  • Javase | Java工具类、(SSM)各种依赖的作用