当前位置: 首页 > news >正文

Pytorch 容器 - 1. Module类介绍

目录

1. 基于Module构建自己的网络

2. Module的初始化变量

3. Modules中需要子类 forward()

4. Modules中其他内置函数


1. 基于Module构建自己的网络

torch.nn.Module是所有神经网络模块的基类,如何定义自已的网络:

  • 由于 Module 是神经网络模块的基类,自己的模型应该要继承这个类
  • 要实现 torch.nn.Module 中的forward函数,从而进行网络的前向传播
  • 一般把网络中具有可学习参数的层放在构造函数__init__()中
  • 把不具有可学习参数的层(如ReLU)放在forward中,并通过nn.functional来代替
import torch.nn as nn
import torch.nn.functional as Fclass Model(nn.Module):    # 继承nn.Module类def __init__(self):super(Model, self).__init__()# 把具有可学习参数的层放在构造函数中self.conv1 = nn.Conv2d(1, 20, 5)    self.conv2 = nn.Conv2d(20, 20, 5)def forward(self, x):    # 实现forward函数# 在forward中直接使用torch.nn.functional.relu()函数x = F.relu(self.conv1(x))return F.relu(self.conv2(x))

2. Module的初始化变量

nn.Module 类内置了一些初始化变量。包括在模块 forward、 backward 和权重加载等时候会被调用的的 hooks,也定义了 parameters 和 buffers,如源码所示:

def __init__(self):"""Initializes internal Module state, shared by both nn.Module and ScriptModule."""torch._C._log_api_usage_once("python.nn_module")self.training = True    # 当前训练/测试的状态self._parameters = OrderedDict()    # 在训练过程中会随 BP 而更新的参数self._buffers = OrderedDict()    # 在训练过程中不会随 BP 而更新的参数self._non_persistent_buffers_set = set()    self._backward_hooks = OrderedDict()    # Backward 完成后会被调用的 hookself._is_full_backward_hook = Noneself._forward_hooks = OrderedDict()    # Forward 完成后会被调用的 hookself._forward_pre_hooks = OrderedDict()    # Forward 前会被调用的 hookself._state_dict_hooks = OrderedDict()    # 得到 state_dict 以后会被调用的 hookself._load_state_dict_pre_hooks = OrderedDict() # 加载state_dict 前会被调用的 hookself._modules = OrderedDict()    # 网络的子模块

3. Modules中需要子类 forward()

注意:在网络训练过程中,直接通过mode(input) 自动调用forward函数,而非model.forward(input)进行调用,因为前者mode(input) 除了forward()外还调用了额外的函数:先执行_forward_pre_hooks里的所有hooks

  • 再调用forward()
  • 执行_forward_hooks中所有hooks
  • 执行_backward_hooks中所有hooks

4. Modules中其他内置函数

除了初始化的成员变量之外,Modules还内置了很多函数,具体包含以下几类:

(1) 属性访问:modules(), named_modules(), buffers(), named_buffers(), children(),  named_children(),  parameters(), named_parameters() 等

(2) 属性设置:register_parameter(),register_buffer(),register_forward_hook(),register_forward_pre_hook() 等

(3) 参数转换/转移:cpu(), cuda(), float(), double() 等

(4) 状态转换:train(), eval() 等

对于这些内置函数的详细介绍,在 PyTorch系列相关文章-Aaron_neil的csdn博客 持续更新中!

本文所参考的部分博客:

[1] pytorch 入坑三:nn module - 知乎

[2] torch.nn.Module模块简单介绍_allan2222的博客-CSDN博客

http://www.lryc.cn/news/59248.html

相关文章:

  • 百度墨卡托坐标转化笔记
  • 每日学术速递4.12
  • HarmonyOS/OpenHarmony公司级技术开发团队硬件基本配置清单
  • 新一代信息技术赋能,安科瑞搭建智慧水务体系的新思路
  • 37岁测试工程师被裁,120天没找到工作,无奈...
  • Java容器使用注意点
  • 密文题解(图论+字典树)
  • Baumer工业相机堡盟工业相机如何通过BGAPISDK里的工具函数来计算工业相机的实时帧率(C#)
  • 数据结构与常量(Java)
  • 【LeetCode】剑指 Offer 54. 二叉搜索树的第k大节点 p269 -- Java Version
  • [工具类] post请求 获取request对象, 获取request的请求体(body)参数
  • Golang 多版本安装小工具G
  • day29—选择题
  • day8 互斥锁/读写锁的概念及使用、死锁的避免
  • 2023-04-13 monetdb-str类型变长存储-分析
  • 011:Mapbox GL两种方式隐藏logo和版权,个性化版权的声明
  • 结合PCA降维的DBSCAN聚类方法(附Python代码)
  • 限流:计数器、漏桶、令牌桶 三大算法的原理与实战(史上最全)
  • Redis用于全局ID生成器、分布式锁的解决方案
  • OpenTex 企业内容管理平台
  • 【0基础学爬虫】爬虫基础之数据存储
  • Redis与本地缓存组合使用(IT枫斗者)
  • 手把手教你学习IEC104协议和编程实现 十 故障事件与复位进程
  • 浅析分布式理论的CAP
  • 使用 TensorFlow 构建机器学习项目:6~10
  • 使用 LXCFS 文件系统实现容器资源可见性
  • SQL LIMIT
  • OpenCV实战之人脸美颜美型(六)——磨皮
  • Java技术栈—重装系统后不重新安装也能正常使用的设置方式
  • 智驾升级!ADB+AFS「起势」