当前位置: 首页 > news >正文

PyTorch入门学习(十二):神经网络-搭建小实战和Sequential的使用

目录

一、介绍

二、先决条件

三、代码解释


一、介绍

在深度学习领域,构建复杂的神经网络模型可能是一项艰巨的任务,尤其是当您有许多层和操作需要组织时。幸运的是,PyTorch提供了一个方便的工具,称为Sequential API,它简化了神经网络架构的构建过程。在本文中,将探讨如何使用Sequential API构建一个用于图像分类的卷积神经网络(CNN)。接下来将详细探讨每部分代码,并讨论每个组件,并清楚地了解如何在项目中充分利用PyTorch的Sequential API。

二、先决条件

  • 对神经网络和PyTorch有基本了解。
  • 安装了PyTorch的Python环境。

三、代码解释

import torch
from torch import nn
from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential
from torch.utils.tensorboard import SummaryWriter

在此代码片段中,导入了必要的库,包括PyTorch及其用于神经网络操作的模块,以及用于TensorBoard可视化的SummaryWriter。

class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init__()self.model1 = Sequential(Conv2d(3, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 64, 5, padding=2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10),)

Tudui类定义了神经网络模型。并使用Sequential API创建一系列层和操作,而不是逐一定义每个层并分别管理它们。在这种情况下,我们有三个卷积层,每个卷积层后跟一个最大池化层。然后,将输出展平并添加两个全连接(线性)层。这些层是按顺序定义的,使代码更加简明和可读。

    def forward(self, x):x = self.model1(x)return x

forward方法中,通过模型构造函数传递输入张量x。由于层在self.model1中按顺序组织,并不需要在前向传递中单独调用每个层。这简化了代码并增强了其清晰度。

tudui = Tudui()

创建了Tudui模型的一个实例。

input = torch.ones((64, 3, 32, 32))
output = tudui(input)

生成一个形状为(64, 3, 32, 32)的示例输入张量,并将其通过模型传递以获得输出。

writer = SummaryWriter("logs")
writer.add_graph(tudui, input)
writer.close()

为了使用TensorBoard可视化模型的架构和计算图,所以创建了一个SummaryWriter并添加了图形。这一步对于调试和理解数据流经网络的过程非常有价值。

完整代码如下:

"""
输入大小为3*32*32
经过3次【5*5卷积核卷积-2*2池化核池化】操作后,输出为64*4*4大小
展平后为1*1024大小
经过全连接层后输出为1*10
"""
import torch
from torch import nn
from torch.nn import Conv2d, MaxPool2d, Flatten, Linear, Sequential
from torch.utils.tensorboard import SummaryWriterclass Tudui(nn.Module):def __init__(self):super(Tudui,self).__init__()# self.conv1 = Conv2d(3,32,5,padding=2)#         # self.maxpool1 = MaxPool2d(2)#         # self.conv2 = Conv2d(32,32,5,padding=2)#         # self.maxpool2 = MaxPool2d(2)#         # self.conv3 = Conv2d(32,64,5,padding=2)#         # self.maxpool3 = MaxPool2d(2)#         # self.flatten = Flatten()#         # self.linear1 = Linear(1024,64)#         # self.linear2 = Linear(64,10)
# 构建一个序列化的container,可以把想要在神经网络中添加的操作都放进去,按顺序进行执行。self.model1 =Sequential(Conv2d(3, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 32, 5, padding=2),MaxPool2d(2),Conv2d(32, 64, 5, padding=2),MaxPool2d(2),Flatten(),Linear(1024, 64),Linear(64, 10),)"""可以看到上面神经网络进行搭建时非常繁琐,在init中进行了多个操作的定以后需要在forward中逐次进行调用,因此我们使用sequential方法,在init方法中直接定义一个model,然后在下面的forward方法中直接使用一次model即可。"""def forward(self,x):# x = self.conv1(x)# x = self.maxpool1(x)# x = self.conv2(x)# x = self.maxpool2(x)# x = self.conv3(x)# x = self.maxpool3(x)# x = self.flatten(x)# x = self.linear1(x)# x = self.linear2(x)x = self.model1(x)return xtudui = Tudui()
print(tudui)
input = torch.ones((64,3,32,32))
output = tudui(input)
print(output.shape)writer = SummaryWriter("logs")
writer.add_graph(tudui,input)
writer.close()

参考资料:

视频教程:PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】

http://www.lryc.cn/news/218787.html

相关文章:

  • Linux shell编程学习笔记20:case ... esac、continue 和break语句
  • 树莓派4无法进入桌面模式(启动后出现彩色画面,然后一直黑屏,但是可以正常启动和ssh)
  • 花草世界生存技能
  • 执行npm install时老是安装不成功node-sass的原因和解决方案
  • 【MongoDB】集群搭建实战 | 副本集 Replica-Set | 分片集群 Shard-Cluster | 安全认证
  • 「Verilog学习笔记」四选一多路器
  • asp.net 创建docker容器
  • Linux项目自动化构建工具-make/Makefile使用
  • 【React】03.脚手架的进阶应用
  • WPF开源控件HandyControl——零基础教程
  • chinese-stable-diffusion中文场景文生图prompt测评集合
  • K-均值聚类算法
  • Xbox漫游指南
  • 降低毕业论文写作压力的终极指南
  • SELECT COUNT( * ) 与SELECT COUNT( 1 ) 区别
  • [python 刷题] 1248 Count Number of Nice Subarrays
  • 堆叠注入 [GYCTF2020]Blacklist1
  • 算法:Java构建二叉树并递归实现二叉树的前序、中序、后序遍历
  • 既然有了字节流,为什么还要有字符流?
  • 3+单细胞+代谢+WGCNA+机器学习
  • 音乐推荐与管理系统Python+Django网页界面+协同过滤推荐算法
  • (论文阅读15/100)You Only Look Once: Unified, Real-Time Object Detection
  • init进程启动过程
  • 全网最详细的【shell脚本的入门】
  • CH10_简化条件逻辑
  • nn.LayerNorm解释
  • Springboot搭建微服务案例之Eureka注册中心
  • 【MySQL】用户管理权限控制
  • 若依框架前后端分离版服务器部署,前端nginx的配置
  • 基于单片机的滚筒洗衣机智能控制系统设计