当前位置: 首页 > news >正文

18.多分类问题代码实现

在机器学习中,多分类问题是一类常见的问题,它涉及到将输入数据划分为多个类别中的一个。例如,在图像识别中,我们可能需要将图像分为不同的类别,如手写数字识别(MNIST数据集)就是将手写数字图像分类为0-9的十个数字。本文将介绍如何使用PyTorch框架来构建一个简单的神经网络模型来解决多分类问题,并以MNIST数据集为例进行说明。

数据集

MNIST是一个包含手写数字图像的大型数据集,由NIST(美国国家标准与技术研究院)发起整理,包含了60,000个训练样本和10,000个测试样本。每个样本都是一张28x28像素的灰度图像,表示一个0-9之间的手写数字。

构建神经网络模型

首先,我们需要导入必要的库,并定义神经网络模型。这里我们将使用一个简单的全连接神经网络,包含两个隐藏层和一个输出层。

import torch import torch.nn as nn import torch.optim as optim import torchvision import torchvision.transforms as transforms # 定义神经网络模型 class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.fc1 = nn.Linear(28 * 28, 500) self.fc2 = nn.Linear(500, 100) self.fc3 = nn.Linear(100, 10) def forward(self, x): x = x.view(-1, 28 * 28) x = torch.relu(self.fc1(x)) x = torch.relu(self.fc2(x)) x = self.fc3(x) return torch.log_softmax(x, dim=1) # 实例化模型 model = Net()

数据加载和预处理

接下来,我们需要加载MNIST数据集,并进行必要的预处理。这里我们使用torchvision.datasets.MNIST来加载数据集,并使用torch.utils.data.DataLoader来加载数据。

# 数据预处理:转换为Tensor并归一化  
transform = transforms.Compose([  transforms.ToTensor(),  transforms.Normalize((0.5,), (0.5,))  
])  # 加载训练集和测试集  
trainset = torchvision.datasets.MNIST(root='./data', train=True, download=True, transform=transform)  
trainloader = torch.utils.data.DataLoader(trainset, batch_size=64, shuffle=True)  testset = torchvision.datasets.MNIST(root='./data', train=False, download=True, transform=transform)  
testloader = torch.utils.data.DataLoader(testset, batch_size=64, shuffle=False)

定义损失函数和优化器

对于多分类问题,我们通常使用交叉熵损失函数(CrossEntropyLoss)。在PyTorch中,nn.CrossEntropyLoss结合了LogSoftmax和NLLLoss,所以我们不需要在模型输出时显式使用LogSoftmax。

对于优化器,我们选择随机梯度下降(SGD)。

# 定义损失函数和优化器  
criterion = nn.CrossEntropyLoss()  
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.9)

训练模型

现在我们可以开始训练模型了。在每个训练周期(epoch)中,我们将遍历整个训练集,计算损失,反向传播梯度,并更新模型参数。

# 训练模型  
num_epochs = 10  
for epoch in range(num_epochs):  for i, (images, labels) in enumerate(trainloader, 0):  # 清零梯度缓存  optimizer.zero_grad()  # 前向传播  outputs = model(images)  loss = criterion(outputs, labels)  # 反向传播和优化  loss.backward()  optimizer.step()  if (i+1) % 1000 == 0:  print(f'Epoch [{epoch+1}/{num_epochs}], Step [{i+1}/{len(trainloader)}], Loss: {loss.item()}')  print('Finished Training')

评估模型

训练完成后,我们可以使用测试集来评估模型的性能。这里我们计算了模型在测试集上的准确率。

# 评估模型  
correct = 0  
total = 0  
with torch.no_grad():  # 不需要计算梯度,节省内存和计算资源  for images, labels in testloader:  outputs = model(images)  _, predicted = torch.max(outputs.data, 1)  # 获取预测结果中概率最大的类别索引  total += labels.size(0)  # 总样本数  correct += (predicted == labels).sum().item()  # 正确预测的样本数  print(f'Accuracy of the network on the 10000 test images: {100 * correct / total} %')

总结

本文介绍了如何使用PyTorch框架来构建和训练一个用于多分类问题的神经网络模型。我们以MNIST手写数字数据集为例,展示了从数据加载和预处理、模型定义、损失函数和优化器选择,到模型训练和评估的整个流程。

在实际应用中,我们可以根据具体的问题和数据集来调整模型的结构和参数,以获得更好的性能。此外,还可以使用更高级的技术和策略来优化模型的训练和评估过程,例如数据增强、正则化、学习率调整等。

通过本文的介绍,读者应该能够掌握使用PyTorch进行多分类问题建模的基本流程和关键技术,为后续的深度学习项目打下坚实的基础。

http://www.lryc.cn/news/354655.html

相关文章:

  • 实时通信的方式——WebRTC
  • Android 使用 ActivityResultLauncher 申请权限
  • 如何将前端项目打包并部署到不同服务器环境
  • 什么样的展馆场馆才是科技满满?就差一张智慧场馆大屏
  • python核心编程(二)
  • 【wiki知识库】02.wiki知识库SpringBoot后端的准备
  • python tuple(元组)
  • opencv调用摄像头保存视频
  • STM32定时器四大功能之定时器编码接口
  • 全国各城市间驾车耗时和距离矩阵数据集(更新至2022年)
  • 推荐二轮电动车仪表盘蓝牙主芯片方案-HS6621CGC
  • 『香橙派』基于Orange Pi AIpro打造高效个人云存储解决方案
  • Sylvester矩阵、子结式、辗转相除法的三者关系(第二部分)
  • PyTorch的数据处理
  • 第14章-蓝牙遥控小车 手把手做蓝牙APP遥控小车 蓝牙串口通讯讲解
  • 【补充1】字节对齐
  • Java数据库连接(JDBC)
  • 记录一次cas单点登录的集成
  • 【吊打面试官系列】Java高并发篇 - 什么是乐观锁和悲观锁?
  • 机器学习之词袋模型
  • 【C++/STL】vector(常见接口、模拟实现、迭代器失效)
  • Spring Boot Web 开发:MyBatis、数据库连接池、环境配置与 Lombok 全面解析
  • 【UE5.1 多线程 异步】“Async Blueprints Extension”插件使用记录
  • 【已解决】在jupyter里运行torch.cuda.is_available(),显示True,在pycharm中运行却显示false。
  • Flutter 中的 Scrollbar 小部件:全面指南
  • 【华为】将eNSP导入CRT,并解决不能敲Tab问题
  • 实验二 电子传输系统安全-进展2
  • JavaScript 获取 HTML 中特定父元素下的子元素
  • 等保服务是一次性服务吗?为什么?怎么理解?
  • 全网首发UNIAPP功能多的iapp后台源码