当前位置: 首页 > article >正文

【pytorch学习】土堆pytorch学习笔记2

说明

主要以https://www.morinha.cc/posts/courses/pytorch-%E5%B0%8F%E5%9C%9F%E5%A0%86的内容为基础,没有的或者自己不是很清楚的再补充上内容,该贴有的内容大部分不再加入进来
新增的更全的参考:
https://2048.csdn.net/6801fc28e98581517972bb50.html

卷积操作–torch.nn.function

卷积分为不同的层,如con1、con2等

以二层卷积为例,具体的参数可查看官方文档

卷积操作主要就是用卷积核(weight)与原始数据进行计算,再加上其他的操作,最后得到一个新的输出

代码示例:
output3 = F.conv2d(input, kernel, stride=1, padding=1)
print(output3)

output3 就是 卷积神经网络模型计算后的 输出,
input是输入的数据,在此为一个二维数组,代表一张图片
kernel表示卷积核,同input形状,也是一个二维数组,并且两者的形状都要有四个维度,否则要进行reshape
stride表示步长
padding表示周围填充几层,填充的默认值是0

输入维度要求

注意要求输入的要求:(批大小,通道数,高,宽)

神经网络–卷积层(torch.nn.conv)

其实就是对nn.function的进一步封装
如nn.Conv2d(),最常用的是这五个参数:in_channels、 out_channels、kernel_size、stride、 padding
实例:
#在初始化方法中定义进行卷积操作
self.conv1 = Conv2d(in_channels=3, out_channels=6, kernel_size=3, stride=1, padding=0)
in_channels=3:三通道输入(彩色图片)
out_channels=6:输出是六通道(6层),即生成6个卷积核
kernel_size=3:每个卷积核的维度是3*3
stride=1:步长为1,卷积核中心移动的步长
padding=0:不进行填充

import torch
import torchvision
from torch import nn
from torch.nn import Conv2d
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter
from urllib3.filepost import writerdatset = torchvision.datasets.CIFAR10("data",train=False,transform=torchvision.transforms.ToTensor(),download=True)dataloader = DataLoader(datset, batch_size=64)class Tudui(nn.Module):def __init__(self):super().__init__()self.conv1 = nn.Conv2d(in_channels=3, out_channels=6,kernel_size=3,stride=1, padding=0)def forward(self, x):x = self.conv1(x)return xtudui = Tudui()
# print(tudui)writer = SummaryWriter("logs")
step = 0
for data in dataloader:if step == 1:breakimgs, targets = dataoutput = tudui(imgs)  # torch.Size([64, 6, 30, 30])# print(imgs.shape)# print(output.shape)writer.add_images("input", imgs, step)  # torch.Size([64, 3, 32, 32])# 第一个值不知道写什么所以写的-1,会自动调整output = torch.reshape(output, (-1, 3, 30, 30))print(output.shape)  # 调整后变成了torch.Size([128, 3, 30, 30])writer.add_images("output", output, step)  step = step + 1writer.close()

池化

最大池化层的步长默认大小为kernel_size
ceil 允许有出界部分;floor 不允许.ceil_mode =True时 为ceil

nn.MaxPool2d(kernel_size=3,ceil_mode=False) 

非线性激活(Non-linear Activations)

非线性变换的主要目的就是给网中加入一些非线性特征,

非线性越多才能训练出符合各种特征的模型。常见的非线性激活:

ReLU:主要是对小于0的进行截断(将小于0的变为0),图像变换效果不明显
主要参数是inplace:
inplace为真时,将处理后的结果赋值给原来的参数;为假时,原值不会改变。
SIGMOID: 归一化处理
效果没有ReLU好,但对于多分类问题,必须采用sigmoid

http://www.lryc.cn/news/2394815.html

相关文章:

  • Eclipse 插件开发 5.3 编辑器 监听输入
  • iOS 集成网易云信IM
  • Parasoft C++Test软件单元测试_实例讲解(对多次调用的函数打桩)
  • azure web app创建分步指南系列之二
  • 题海拾贝:P8598 [蓝桥杯 2013 省 AB] 错误票据
  • MySQL 8.0:解析
  • Python量化交易12——Tushare全面获取各种经济金融数据
  • 封装一个小程序选择器(可多选、单选、搜索)
  • Dest建筑能耗模拟仿真功能简介
  • 【Hot 100】121. 买卖股票的最佳时机
  • 【机器学习基础】机器学习入门核心算法:XGBoost 和 LightGBM
  • Linux | Shell脚本的常用命令
  • 跑步的强度等级分类
  • 【JUC】深入解析 JUC 并发编程:单例模式、懒汉模式、饿汉模式、及懒汉模式线程安全问题解析和使用 volatile 解决内存可见性问题与指令重排序问题
  • 2025年全国青少年信息素养大赛复赛C++算法创意实践挑战赛真题模拟强化训练(试卷3:共计6题带解析)
  • Mongodb | 基于Springboot开发综合社交网络应用的项目案例(中英)
  • 飞腾D2000与FPGA结合的主板
  • 百度量子蜘蛛3.0横空出世,搜索引擎迎来“量子跃迁“级革命
  • GitHub开源|AI顶会论文中文翻译PDF合集(gpt-translated-pdf-zh)
  • JSR 303(即 Bean Validation)是一个通过​​注解在 Java Bean 上定义和执行验证规则​​的规范
  • 5G 网络中的双向认证机制解析
  • DAY07:Vue Router深度解析与多页面博客系统实战
  • Drawio编辑器二次开发
  • 1.测试过程之需求分析和测试计划
  • 第三十七天打卡
  • Qt 窗口标志(Window Flags)详解:控制窗口样式与行为
  • ABP VNext + CRDT 打造实时协同编辑
  • 微信小程序真机调试时如何实现与本地开发环境服务器交互
  • Linux: network: dpdk, VF, ip link set down 对VF不生效
  • [春秋云镜] CVE-2023-23752 writeup