当前位置: 首页 > news >正文

PyTorch搭建神经网络入门教程

PyTorch搭建神经网络入门教程

在机器学习和深度学习中,神经网络是最常用的模型之一,而 PyTorch 是一个强大的深度学习框架,适合快速开发与研究。在这篇文章中,我们将带你一步步搭建一个简单的神经网络,并介绍 PyTorch 的基本用法。

1. 环境准备

首先,确保你已经安装了 PyTorch。可以使用 pip 安装:

pip install torch torchvision

安装完成后,你可以使用以下代码检查安装是否成功:

import torch
print(torch.__version__)

如果没有报错,说明 PyTorch 安装成功。

2. 定义数据集

在深度学习中,数据是非常重要的。我们将使用 PyTorch 内置的 torchvision 库中的 MNIST 数据集。这个数据集包含手写数字,适合用来训练图像分类模型。

import torch
from torchvision import datasets, transforms# 定义数据的预处理步骤
transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5,), (0.5,))])# 下载并加载训练集和测试集
trainset = datasets.MNIST(root='./data', train=True, download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=64, shuffle=True)testset = datasets.MNIST(root='./data', train=False, download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=64, shuffle=False)

上面的代码中,我们将数据进行了标准化处理,并使用 DataLoader 将数据分批加载。batch_size=64 意味着每次会处理64张图片。

3. 定义神经网络模型

我们将使用 torch.nn.Module 来定义一个简单的全连接神经网络。这个网络包含输入层、隐藏层和输出层,每层使用线性激活和 ReLU 非线性激活函数。

import torch.nn as nn
import torch.nn.functional as Fclass SimpleNN(nn.Module):def __init__(self):super(SimpleNN, self).__init__()# 定义两层全连接层self.fc1 = nn.Linear(28 * 28, 128)  # 输入层,将28x28的图像展平为784个输入节点self.fc2 = nn.Linear(128, 64)       # 隐藏层,128个神经元self.fc3 = nn.Linear(64, 10)        # 输出层,10个分类(对应0-9的手写数字)def forward(self, x):# 展平图像数据(batch_size, 28*28)x = x.view(x.shape[0], -1)# 通过隐藏层和激活函数x = F.relu(self.fc1(x))x = F.relu(self.fc2(x))# 输出层,直接输出为logitsx = self.fc3(x)return x

在上面的代码中,我们定义了一个三层的全连接神经网络。第一层将 28x28 像素的图像展平为一维数组,接下来通过隐藏层并应用 ReLU 激活函数,最终通过输出层得到 10 个类别的预测。

4. 定义损失函数与优化器

在训练神经网络之前,需要定义损失函数和优化器。我们将使用交叉熵损失函数和 Adam 优化器。

import torch.optim as optim# 实例化神经网络模型
model = SimpleNN()# 定义损失函数(交叉熵损失)
criterion = nn.CrossEntropyLoss()# 定义优化器(Adam)
optimizer = optim.Adam(model.parameters(), lr=0.003)

这里,CrossEntropyLoss 是常用于分类问题的损失函数,而 Adam 是一种自适应学习率的优化方法,适用于大多数深度学习任务。

5. 训练神经网络

我们可以开始训练神经网络了。训练过程通常包含前向传播、计算损失、反向传播和参数更新四个步骤。

epochs = 5  # 定义训练轮次
for epoch in range(epochs):running_loss = 0for images, labels in trainloader:# 将梯度清零optimizer.zero_grad()# 前向传播outputs = model(images)loss = criterion(outputs, labels)# 反向传播并更新权重loss.backward()optimizer.step()# 记录损失running_loss += loss.item()print(f"Epoch {epoch+1}/{epochs} - Loss: {running_loss/len(trainloader)}")

这里我们遍历训练数据集,通过每个批次的数据进行前向传播和反向传播,并根据损失更新模型的参数。

6. 测试模型

在模型训练完成后,我们需要在测试集上评估模型的表现。

correct = 0
total = 0# 不需要计算梯度
with torch.no_grad():for images, labels in testloader:outputs = model(images)_, predicted = torch.max(outputs, 1)total += labels.size(0)correct += (predicted == labels).sum().item()print(f'Accuracy of the model on the 10000 test images: {100 * correct / total}%')

通过 torch.no_grad(),我们可以避免在测试时计算梯度,提升性能。通过比较模型的预测结果与真实标签,我们可以计算测试集的准确率。

7. 小结

本文介绍了使用 PyTorch 搭建神经网络的基本步骤,主要包括数据处理、模型定义、损失函数与优化器的设置、训练与测试。虽然这个神经网络比较简单,但已经可以作为深度学习任务的入门示例。

接下来,你可以尝试:

  • 调整神经网络的结构,如增加更多的隐藏层或使用不同的激活函数。
  • 使用不同的数据集进行训练和测试。
  • 结合 GPU 加速训练过程,提升模型的训练速度。

通过 PyTorch,搭建神经网络和进行深度学习研究变得更加简单高效。希望这篇教程对你有所帮助!

http://www.lryc.cn/news/464003.html

相关文章:

  • 你的电脑能不能安装windows 11,用这个软件检测下就知道了
  • BF 算法
  • SHOW-O——一款结合多模态理解和生成的单一Transformer
  • 缓存框架JetCache源码解析-缓存变更通知机制
  • Android 设置特定Activity内容顶部显示在状态栏底部,也就是状态栏的下层 以及封装一个方法修改状态栏颜色
  • 用自己的数据集复现YOLOv5
  • 如何在博客中插入其他的博客链接(超简单)最新版
  • JS通过递归函数来剔除树结构特定节点
  • javayufa
  • 软考-高级系统分析师知识点-补充篇
  • JavaScript全面指南(四)
  • 2024年诺贝尔物理学奖的创新之举
  • FileLink内外网文件交换——致力企业高效安全文件共享
  • 使用Python在Jupyter Notebook中显示Markdown文本
  • G1 GAN生成MNIST手写数字图像
  • WPFDeveloper正式版发布
  • 实现鼠标经过某个元素时弹出提示框(通常称为“工具提示”或“悬浮提示”)
  • 【GAMES101笔记速查——Lecture 17 Materials and Appearances】
  • 对于从vscode ssh到virtualBox的timeout记录
  • 鸿蒙原生应用扬帆起航
  • 《计算机视觉》—— 表情识别
  • NVIDIA Aerial Omniverse
  • QT程序报错解决方案:Cannot queue arguments of type ‘QTextCharFormat‘ 或 ‘QTextCursor‘
  • MySQL知识点_03
  • leetcode:744. 寻找比目标字母大的最小字母(python3解法)
  • 2015年-2016年 软件工程程序设计题(算法题)实战_c语言程序设计数据结构程序设计分析
  • 整理一下实际开发和工作中Git工具的使用 (持续更新中)
  • Axios 的基本使用与 Fetch 的比较、在 Vue 项目中使用 Axios 的最佳实践
  • Dockerfile样例
  • MYSQL-多表查询