当前位置: 首页 > news >正文

pytorch2.5实例教程

以下是再次为你提供的一个详细的PyTorch使用教程:

一、安装PyTorch

  • 环境准备
    • 确保系统已安装合适版本的Python(推荐3.10及以上)。
  • 安装方式
    • CPU版本
      • 对于Linux和macOS:
        • 使用命令 pip install torch torchvision torchaudio
      • 对于Windows:
        • 先处理好依赖项,然后使用类似的pip命令安装。
    • GPU版本(依赖于CUDA)
      • 依据CUDA版本在官网查找对应命令。例如,若CUDA为12.4:
        • 执行 conda install pytorch==2.5.0 torchvision==0.20.0 torchaudio==2.5.0 pytorch-cuda=12.4 -c pytorch -c nvidia。

二、PyTorch基础概念

  • 张量(Tensors)
    • 核心数据结构,类似NumPy数组且可在GPU加速计算。
    • 创建方式
      • 从列表创建:
        • 示例:
          • import torch
          • my_list = [1, 2, 3]
          • tensor = torch.tensor(my_list)
      • 创建随机张量:
        • 例如:random_tensor = torch.randn(3, 3)(创建3x3随机正态分布张量)。
  • 计算图与自动微分
    • 计算基于构建计算图,操作张量时自动构建。
    • 示例:
      • 计算 y = x^2 + 3x 的梯度。
        • x = torch.tensor([2.0], requires_grad = True)
        • y = x ** 2+3 * x
        • y.backward()
        • print(x.grad)

三、创建神经网络模型

  • 定义网络结构
    • 使用 nn.Module 类。
    • 示例(全连接神经网络):
      • import torch.nn as nn
      • class MyNet(nn.Module):def __init__(self):super(MyNet, self).__init__()self.fc1 = nn.Linear(10, 5)self.fc2 = nn.Linear(5, 1)def forward(self, x):x = torch.relu(self.fc1(x))x = self.fc2(x)return x
        
  • 模型初始化与参数查看
    • 初始化:model = MyNet()
    • 参数查看:
      • for name, param in model.named_parameters():print(name, param.size())
        

四、数据处理

  • 数据加载
    • 使用 DataLoader 类,需先创建数据集类(继承 torch.utils.data.Dataset)。
    • 示例:
      • from torch.utils.data import Dataset, DataLoader
        class MyDataset(Dataset):def __init__(self):self.data = torch.randn(100, 10)self.labels = torch.randint(0, 2, (100,))def __getitem__(self, index):return self.data[index], self.labels[index]def __len__(self):return len(self.data)
        dataset = MyDataset()
        dataloader = DataLoader(dataset, batch_size = 10, shuffle = True)
        
  • 数据预处理
    • 以图像数据为例,使用 torchvision.transforms
    • 示例:
      • import torchvision.transforms as transforms
        transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))
        ])
        

五、训练模型

  • 定义损失函数和优化器
    • 损失函数
      • 例如回归问题用均方误差(MSE):criterion = nn.MSELoss()
    • 优化器
      • 如随机梯度下降(SGD):optimizer = torch.optim.SGD(model.parameters(), lr = 0.01)
  • 训练循环
    • 多轮训练:
      • num_epochs = 10
        for epoch in range(num_epochs):for batch_data, batch_labels in dataloader:optimizer.zero_grad()outputs = model(batch_data)loss = criterion(outputs, batch_labels)loss.backward()optimizer.step()print(f'Epoch {epoch + 1}, Loss: {loss.item()}')
        

六、模型评估与预测

  • 模型评估
    • 以分类问题计算准确率为例:
      • correct = 0
        total = 0
        with torch.no_grad():for batch_data, batch_labels in dataloader:outputs = model(batch_data)_, predicted = torch.max(outputs.data, 1)total += batch_labels.size(0)correct += (predicted == batch_labels).sum().item()
        accuracy = correct / total
        print(f'Accuracy: {accuracy}')
        
  • 预测新数据
    • 示例:
      • new_data = torch.randn(1, 10)
        with torch.no_grad():prediction = model(new_data)
        print(f'Prediction: {prediction}')
        
http://www.lryc.cn/news/525905.html

相关文章:

  • 【开源免费】基于SpringBoot+Vue.JS智慧图书管理系统(JAVA毕业设计)
  • 基于自然语言处理的垃圾短信识别系统
  • Node.js HTTP模块详解:创建服务器、响应请求与客户端请求
  • Day 17 卡玛笔记
  • 深圳大学-智能网络与计算-实验一:RFID原理与读写操作
  • ⚡C++ 中 std::transform 函数深度解析:解锁容器元素转换的奥秘⚡【AI 润色】
  • 【miniconda】:langraph的windows构建
  • (k8s)k8s部署mysql与redis(无坑版)
  • Git常用操作指令
  • 新手理解:Android 中 Handler 和 Thread.sleep 的区别及应用场景
  • 智能安全策略-DPL
  • 差分进化算法 (Differential Evolution) 算法详解及案例分析
  • Alibaba Spring Cloud 十七 Sentinel熔断降级
  • LetsWave脑电数据简单ERP分析matlab(一)
  • 设计模式Python版 工厂方法模式
  • 贝叶斯优化相关
  • 【Matlab高端绘图SCI绘图全家桶更新版】在原60种绘图类型基础上更新
  • 如何构建一个 GraphRAG 系统
  • 代码随想录算法训练营day34
  • 单片机基础模块学习——按键
  • polars as pl
  • 重构(4)
  • 神经网络|(三)线性回归基础知识
  • deepseek R1 高效使用学习
  • STM32_SD卡的SDIO通信_基础读写
  • 【Docker】私有Docker仓库的搭建
  • linux 管道符、重定向与环境变量
  • Ansible fetch模块详解:轻松从远程主机抓取文件
  • wireshark工具简介
  • 51单片机——按键控制LED流水灯