当前位置: 首页 > news >正文

Pytorch 缓解过拟合和网络退化

一 添加BN模块

BN模块应该添加 激活层前面

在模型实例化后,我们需要对BN层进行初始化。PyTorch中的BN层是通过nn.BatchNorm1d或nn.BatchNorm2d类来实现的。

bn = nn.BatchNorm1d(20) #
对于1D输入数据,使用nn.BatchNorm1d;对于2D输入数据,使用nn.BatchNorm2d

在模型的前向传播过程中,我们需要将BN层应用到适当的位置。以全连接层为例,我们需要在全连接层的输出之后调用BN层。

class MyModel(nn.Module):def __init__(self):super(MyModel, self).__init__()self.fc1 = nn.Linear(10, 20)self.bn = nn.BatchNorm1d(20)self.fc2 = nn.Linear(20, 30)self.fc3 = nn.Linear(30, 2)def forward(self, x):x = self.fc1(x)x = self.bn(x)x = self.fc2(x)x = self.fc3(x)return x

二 添加残差连接

最主要的是需要注意输入参数的维度是否一致

import torch
import torch.nn as nnclass ResidualBlock(nn.Module):def __init__(self, input_size, hidden_size):super(ResidualBlock, self).__init__()self.fc1 = nn.Linear(input_size, hidden_size)self.fc2 = nn.Linear(hidden_size, input_size)self.relu = nn.ReLU()def forward(self, x):residual = xout = self.fc1(x)out = self.relu(out)out = self.fc2(out)out += residualout = self.relu(out)return out
-----------------------------------
©著作权归作者所有:来自51CTO博客作者mob649e8166c3a5的原创作品,请联系作者获取转载授权,否则将追究法律责任
pytorch 全链接层设置残差模块
https://blog.51cto.com/u_16175510/6892589

三 一维卷积(tf和torch)

a. tf.keras.layers.Conv1D

该函数的必要参数有两个,filters(即 out_channels)和 kernel_size。对于 X = (1, 8, 128),如下代码可以得到 Y = (1, 6, 64):

import tensorflow as tf
X = tf.random.normal((1, 8, 128))
X.shape
# TensorShape([1, 8, 128])
conv = tf.keras.layers.Conv1D(64, 3, padding='valid')
Y = conv(X)
Y.shape
# TensorShape([1, 6, 64])

keras 为了让整个 api 更加用户友好,隐藏了两个关键参数。第一个是 data_format,在默认值 “channels_last”下,X 的维度顺序为 [batch_size, seq_length, input_channels],更符合NLP任务的直观理解。如果修改为“channels_first”,X 需要满足 [batch_size, input_channels, seq_length]。第二个是 input_channels,在函数内部自动获得:

input_channel = self._get_input_channel(input_shape)
如果 X 和 data_format 不匹配,就得不到正确的 in_channels。这里就是和 Pytorch 显著差异的地方。

b. torch.nn.Conv1d

该函数的必要参数有三个,in_channels, out_channels 和 kernel_size。被 keras 隐藏的 in_channels 被直接暴露,并且也不支持 data_format 的设置,X 的维度顺序必须是 [batch_size, input_channels, seq_length]。因此,对于通常的使用习惯,必须要先对输入做一次维度转换,再对输出做一次。对于 X = (1, 8, 128),如下代码可以得到 Y = (1, 6, 64):

import torch
X = torch.randn(1, 8, 128)
X.shape
# torch.Size([1, 8, 128])
Xt = X.transpose(1,2)
Xt.shape
# torch.Size([1, 128, 8])
conv = torch.nn.Conv1d(128, 64, 3)
Yt = conv(Xt)
Yt.shape
# torch.Size([1, 64, 6])
Y = Yt.transpose(Yt)
Y.shape
# torch.Size([1, 6, 64])

1、Pytorch搭建残差网络
2、扒源码:TensorFlow与Pytorch在一维卷积上的差异

http://www.lryc.cn/news/218530.html

相关文章:

  • 【算法】昂贵的聘礼(dijkstra算法)
  • hackergame2023菜菜WP
  • ubuntu20.04.6使用FTP-及相关安全配置
  • C++中不允许复制的类
  • 使用Python 脚自动化操作服务器配置
  • DL Homework 6
  • 软考高项论文-绩效域
  • 设计模式之装饰模式--优雅的增强
  • 前端vue,后端springboot。如何防止未登录的用户直接浏览器输入地址访问
  • linux安装Chrome跑web自动化
  • linux环境下编译,安卓平台使用的luajit库
  • indexedDB笔记
  • 系统提示缺少或找不到emp.dll文件的详细解决方案
  • Python实现自动化网页操作
  • 03 矩阵与线性变换
  • MySQL InnoDB数据存储结构
  • 【数据结构】数组和字符串(十五):字符串匹配2:KMP算法(Knuth-Morris-Pratt)
  • STM32 PWM可控制电压原理
  • angular、 react、vue框架对比
  • GNSS常用数据源汇总
  • 01|LangChain | 从入门到实战-介绍
  • 【小白专用】PHP基本语法 23.11.04
  • 路由器基础(七):NAT原理与配置
  • Spring Boot 整合SpringSecurity和JWT和Redis实现统一鉴权认证
  • 交换机基础(零):交换机基础配置
  • 02 线性组合、张成的空间与基
  • 解析mfc100u.dll文件丢失的修复方法,快速解决mfc100u.dll问题
  • 免费外文文献检索网站,你一定要知道
  • 大数据毕业设计选题推荐-收视点播数据分析-Hadoop-Spark-Hive
  • 传智杯-21算法赛初赛B组题目详细解法解析-AB题(C/C++、Python、Java)