当前位置: 首页 > news >正文

【PyTorch】PyTorch中torch.nn模块的全连接层

PyTorch深度学习总结

第十一章 PyTorch中torch.nn模块的全连接层


文章目录

  • PyTorch深度学习总结
  • 前言
  • 一、全连接层的定义和原理
  • 二、在PyTorch中使用全连接层
  • 三、全连接层的参数
  • 四、全连接层在神经网络中的应用
  • 五、 全连接层的优缺点


前言

上文介绍torch.nn模块中的激活函数,本文将进一步介绍torch.nn模块中的全连接层。以下是关于PyTorch全连接层的详细介绍:


一、全连接层的定义和原理

全连接层Fully Connected Layer),也称为线性层,是神经网络中最基本的层之一。在全连接层中,每个输入神经元都与输出神经元相连,这种连接方式意味着输出层的每个神经元的值都是输入层所有神经元值的加权和,再加上一个偏置项。其数学表达式为y=Wx+by = Wx + by=Wx+b,其中 xxx是输入向量,WWW是权重矩阵,bbb 是偏置向量,yyy是输出向量。

例如,假设有一个输入层有3个神经元,输出层有2个神经元的全连接层。那么权重矩阵WWW 的形状就是 2×32\times32×3,偏置向量bbb的形状是 2×12\times12×1。输入向量 xxx的形状是 3×13\times13×1,通过矩阵乘法 WxWxWx 得到一个 2×12\times12×1 的向量,再加上偏置向量bbb,就得到了最终的输出向量yyy


二、在PyTorch中使用全连接层

在PyTorch中,全连接层可以通过 torch.nn.Linear 类来实现。以下是一个简单的示例代码:

import torch
import torch.nn as nn# 定义输入特征的维度
input_size = 10
# 定义输出特征的维度
output_size = 5# 创建一个全连接层
fc_layer = nn.Linear(input_size, output_size)# 生成一个随机输入张量
input_tensor = torch.randn(1, input_size)# 前向传播
output = fc_layer(input_tensor)print("输入张量的形状:", input_tensor.shape)
print("输出张量的形状:", output.shape)

在上述代码中,首先定义了输入特征的维度 input_size 和输出特征的维度 output_size,然后使用 nn.Linear 类创建了一个全连接层 fc_layer。接着生成了一个随机输入张量 input_tensor,并将其传入全连接层进行前向传播,最后打印出输入张量和输出张量的形状。


三、全连接层的参数

全连接层的主要参数是权重矩阵 (W) 和偏置向量 (b)。在PyTorch中,可以通过 fc_layer.weightfc_layer.bias 来访问这些参数。以下是一个示例:

import torch
import torch.nn as nninput_size = 10
output_size = 5
fc_layer = nn.Linear(input_size, output_size)# 访问权重矩阵
weight = fc_layer.weight
# 访问偏置向量
bias = fc_layer.biasprint("权重矩阵的形状:", weight.shape)
print("偏置向量的形状:", bias.shape)

在这个示例中,我们创建了一个全连接层,并分别访问了其权重矩阵和偏置向量,然后打印出它们的形状。

四、全连接层在神经网络中的应用

全连接层在神经网络中有着广泛的应用,特别是在多层感知机(Multilayer Perceptron, MLP)中。多层感知机是一种由多个全连接层组成的神经网络,通常用于分类和回归任务。以下是一个简单的多层感知机的示例代码:

import torch
import torch.nn as nn# 定义一个简单的多层感知机
class MLP(nn.Module):def __init__(self, input_size, hidden_size, output_size):super(MLP, self).__init__()# 第一个全连接层self.fc1 = nn.Linear(input_size, hidden_size)# 激活函数self.relu = nn.ReLU()# 第二个全连接层self.fc2 = nn.Linear(hidden_size, output_size)def forward(self, x):# 第一个全连接层的输出out = self.fc1(x)# 应用激活函数out = self.relu(out)# 第二个全连接层的输出out = self.fc2(out)return out# 定义输入特征的维度
input_size = 10
# 定义隐藏层的维度
hidden_size = 20
# 定义输出特征的维度
output_size = 5# 创建多层感知机实例
mlp = MLP(input_size, hidden_size, output_size)# 生成一个随机输入张量
input_tensor = torch.randn(1, input_size)# 前向传播
output = mlp(input_tensor)print("输入张量的形状:", input_tensor.shape)
print("输出张量的形状:", output.shape)

在这个示例中,我们定义了一个简单的多层感知机类 MLP,它包含两个全连接层和一个激活函数 ReLU。通过 forward 方法实现了前向传播过程,最后将一个随机输入张量传入多层感知机进行前向传播,并打印出输入张量和输出张量的形状。

五、 全连接层的优缺点

  • 优点
    - 表达能力强:全连接层可以学习输入和输出之间的复杂非线性关系,能够处理各种类型的任务。
    - 易于实现:在PyTorch等深度学习框架中,全连接层的实现非常简单,只需要使用 nn.Linear 类即可。
  • 缺点
    - 参数数量多:全连接层的参数数量与输入和输出的维度成正比,当输入和输出的维度较大时,参数数量会急剧增加,容易导致过拟合。
    - 计算量大:由于全连接层需要进行大量的矩阵乘法运算,因此计算量较大,训练时间较长。
http://www.lryc.cn/news/583689.html

相关文章:

  • LeetCode经典题解:1、两数之和(Two Sum)
  • 小程序软装: 组件库开发
  • Python Day8
  • Ubuntu22.04 设置显示存在双屏却无法双屏显示
  • Mysql中的日志-undo/redo/binlog详解
  • spring-data-jpa + Alibaba Druid多数据源案例
  • 10.9 大模型训练数据优化实战:3步让准确率从68%飙升至79%
  • Debezium:一款基于CDC的开源数据同步工具
  • 深度学习 最简单的神经网络 线性回归网络
  • 桌面开发,在线%图书管理系统%开发,基于C#,winform,界面美化,mysql数据库
  • (八)PS识别:使用 Python 自动化生成图像PS数据集
  • 第十五天,7月9日,八股
  • 图像处理中的直方图均衡化:原理与实现
  • uniapp中使用uView-plus踩坑记录
  • 18-C#改变形参内容
  • 【linux】ssh使用-X参数后报错:X11 forwarding request failed on channel 0
  • Windows Subsystem for Linux (WSL):现代开发的终极跨平台方案
  • Ubuntu重装系统后ssh连接不上(遇到 ​​“Unit ssh.service not found“​​ 错误)
  • ServBay Windows 1.2.0 更新!新增 PHP 设置与 Ollama 支持
  • SpringGateway网关增加https证书验证
  • rt thread studio 和 KEIL对于使用rt thread 的中间件和组件,哪个更方便
  • 蛋白质序列-kappa参数计算算法解读
  • WPF使用WebBrowser 解决href标签target=_blank在浏览器窗口打开新链接而非窗体内部打开的问题
  • 暑假算法日记第五天
  • 【牛客刷题】小欧的选数乘积
  • 工程改Mvvm
  • c++学习-类中类成员变量的创建和释放顺序2-资源new出来的对象未被手动delete
  • Python通关秘籍之基础教程(一)
  • Vue 中mounted 生命周期钩子的执行时机和 v-for 的渲染顺序
  • 深度学习遇到的问题