当前位置: 首页 > news >正文

【新方法】通过清华镜像源加速 PyTorch GPU 2.5安装及 CUDA 版本选择指南

在这里插入图片描述

下面详细介绍所提到的两条命令,它们的作用及如何在你的 Python 环境中加速 PyTorch 等库的安装。

1. 设置清华镜像源

pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

这条命令的作用是将 pip (Python 的包管理工具)默认的安装源更改为 清华大学的镜像源 ,从而加速后续包的下载速度。清华镜像源是国内非常可靠的 PyPI 镜像源之一,尤其是在中国大陆使用时,它能显著提高安装 Python 库的速度。

背景知识:
  • 默认情况下,pip 使用的是 官方 PyPI (Python Package Index)的源,该源位于国外。在中国大陆,由于网络访问的限制和延迟,访问官方 PyPI 源时可能会遇到下载慢、超时等问题。
  • 为了解决这个问题,很多高校和公司提供了 PyPI 镜像源 ,清华大学提供的镜像源就其中之一。使用镜像源可以大大加速下载过程。
如何工作:
  • 执行 pip config set global.index-url 后,pip 会将下载源更改为清华镜像源。因此,后续所有通过 pip install 安装的包都会从该镜像源获取,而不是默认的官方源。
示例:

假设你需要安装一些库,如 NumPyPandas ,在清华镜像源下下载会比从官方源快得多。你只需要运行:
pip install numpy

该命令会自动从清华镜像源下载和安装 numpy 库。

2. 通过指定 PyTorch 官方源安装 PyTorch、TorchVision 和 Torchaudio

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

这条命令的目的是通过指定 PyTorch 官方源 下载并安装 PyTorchTorchVisionTorchaudio 库。你还指定了 PyTorch 适用于 CUDA 11.8 版本的安装包。

背景知识:
  • PyTorch 是一个广泛使用的深度学习框架,支持 GPU 加速。为了使用 PyTorch 的 GPU 功能,你需要安装支持特定 CUDA 版本的 PyTorch。
  • CUDA 是 NVIDIA 提供的并行计算平台,支持在 GPU 上进行高效计算。PyTorch 需要与 CUDA 版本匹配才能在 GPU 上运行。
  • 在 PyTorch 的安装过程中,你可以选择对应你的 CUDA 版本的安装包。例如,你指定了 cu118,表示安装与 CUDA 11.8 兼容的版本。
说明:
  • torch 是 PyTorch 库的核心,提供了深度学习的基础功能。
  • torchvision 是一个计算机视觉库,包含了常见的图像处理、模型、数据集等功能。
  • torchaudio 是一个用于音频处理的库,扩展了 PyTorch 在音频领域的能力。

你指定的 --index-url https://download.pytorch.org/whl/cu118 是 PyTorch 官方的二进制文件源,它为不同的 CUDA 版本提供了预编译的 PyTorch 安装包。这样可以避免你手动编译 PyTorch,从而加速安装过程。

示例:

如果你已经设置了清华镜像源,并希望安装适用于 CUDA 11.8 的 PyTorch,可以运行以下命令:

pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

这会直接从 PyTorch 的官方源下载并安装支持 CUDA 11.8 的版本,确保你能够利用 GPU 来加速深度学习训练和推理。

详细流程总结:

  1. 设置镜像源
    • 通过 pip config set global.index-url 命令,将 pip 默认的包源更改为清华镜像源,能够有效加速包的下载速度,尤其是对于在中国大陆的用户。
    • 使用清华镜像源的好处是,它提供了本地化的源,减少了跨境访问的延迟。
  2. 安装 PyTorch 等库
    • 使用 pip install 命令安装指定版本的 PyTorch 相关库,并通过 --index-url 指定官方源(如 CUDA 11.8 版本的 PyTorch)。
    • 通过这种方式,你可以确保安装的是兼容你机器的 CUDA 版本的 PyTorch,从而能够利用 GPU 提升计算性能。

额外的注意事项:

  • CUDA 版本 :确保你的机器上已安装相应版本的 CUDA ,否则无法利用 GPU 加速。不同的 CUDA 版本可能需要不同的 PyTorch 安装包。
  • 虚拟环境 :建议在 Python 虚拟环境中进行安装,以避免与系统环境发生冲突。

小贴士:

如果你需要使用不同版本的 CUDA,可以访问 PyTorch 官方安装指南,选择合适的版本并生成对应的安装命令:PyTorch 官网安装页面

参考

https://pytorch.org/get-started

http://www.lryc.cn/news/513783.html

相关文章:

  • MySQL的sql操作有哪些
  • ArcGIS计算矢量要素集中每一个面的遥感影像平均值、最大值等统计指标
  • EasyExcel(环境搭建以及常用写入操作)
  • 探索Milvus数据库:新手入门指南(tencent云)
  • MySQL:一文弄懂时区time_zone
  • 基于python的天气可视化系统
  • STM32 高级 WIFi案例1:测试AT指令
  • SpringCloud微服务架构
  • WebSocket封装
  • 基于Flask后端框架的均值填充
  • SQL-Server链接服务器访问Oracle数据
  • Python中continue语句的使用
  • JavaScript的diff库详解(示例:vue项目实现两段字符串比对标黄功能)
  • 自动驾驶3D目标检测综述(六)
  • the request was rejected because no multipart boundary was found
  • HarmonyOS-面试整理
  • [C#] 「Unity」「游戏开发」如何在Canvas下的Button控件下实例化Image元素
  • Nginx1.20.2-Linux-安装
  • Elasticsearch名词解释
  • Node项目——从0开始构建且共享至Gitee
  • layui多图上传,tp8后端接收处理
  • QEMU网络配置简介
  • 28.Marshal.PtrToStringAnsi C#例子
  • 基于feapder爬虫与flask前后端框架的天气数据可视化大屏
  • Linux隐藏登录和清除历史命令以及其他相关安全操作示例
  • 从授权校验看SpringBoot自动装配
  • tensorboard的界面参数与图像数据分析讲解
  • MTK 平台关于WIFI 6E P2P的解说
  • 离线语音识别+青云客语音机器人(幼儿园级别教程)
  • leetcode hot 100 跳跃游戏