当前位置: 首页 > news >正文

深度学习-卷积神经网络-GoogLeNet

在深度学习的发展历程中,卷积神经网络(CNN)不断推陈出新,GoogLeNet 作为其中的杰出代表,以其独特的 Inception 架构在图像识别领域取得了显著的成果。

GoogLeNet 的一个观点是:有时使用不同大小的卷积核组合是有利的。

  • GoogLeNet吸收了前文中NiN的串联网络的思想,并在此基础上做了改进。

  • 这篇论文的一个重点是解决了什么样大小的卷积核最合适的问题。

  • 毕竟,以前流行的网络使用小到1×1,大到11×11 的卷积核。

在GoogLeNet中,基本的卷积块被称为 Inception块(Inception block)。

这很可能得名于电影《盗梦空间》(Inception),因为电影中的一句话“我们需要走得更深”(“We need to go deeper”)。

1. Inception 模块

GoogLeNet 的核心创新在于其提出的 Inception 模块。Inception 模块通过在同一个层级中并行地使用多个不同尺寸的卷积核(如 1×1、3×3、5×5)以及池化操作,能够同时捕获不同尺度的特征。这种多尺度特征提取方式大大增强了模型对图像信息的理解能力。

具体而言,每个 Inception 模块包含以下几种路径:

  1. 1×1 卷积路径:用于减少特征图的通道数,降低计算复杂度,同时提取重要的特征信息。

  2. 3×3 卷积路径:捕获中等尺度的特征。

  3. 5×5 卷积路径:捕获较大尺度的特征。

  4. 池化路径:通过池化操作降低特征图的空间尺寸,同时保留重要的特征信息。

这些路径的输出最终会被拼接在一起,形成该 Inception 模块的输出特征图。这种设计使得模型能够在不同的尺度上进行特征提取,从而更全面地理解图像内容。

Inception块 的架构

Inception块由四条并行路径组成:【蓝色抽取信息,白色改变通道数

  • 前三条路径使用窗口大小为1×1、3×3和5×5的卷积层,从不同空间大小中提取信息。

  • 中间的两条路径在输入上执行1×1卷积,以减少通道数,从而降低模型的复杂性。

  • 第四条路径使用3×3最大汇聚层,然后使用1×1卷积层来改变通道数

这四条路径都使用合适的填充来使输入与输出的高和宽一致,最后我们将每条线路的输出在通道维度上连结,并构成Inception块的输出。在Inception块中,通常调整的超参数是每层输出通道数

2. 网络整体结构

GoogLeNet 的整体网络结构由多个 Inception 模块堆叠而成,并在适当的位置插入了最大池化层以逐步降低特征图的空间尺寸。此外,GoogLeNet 还引入了辅助分类器(Auxiliary Classifiers)的概念,这些辅助分类器连接在中间的某些 Inception 模块之后,用于在训练过程中提供额外的监督信号,从而帮助缓解梯度消失问题,促进网络的收敛。

3. 代码实现

代码改编自《动手学深度学习》

首先实现Incepetion:

import torch
from torch import nn
from torch.nn import functional as F
from d2l import torch as d2lclass Inception(nn.Module):# c1--c4是每条路径的输出通道数def __init__(self, in_channels, c1, c2, c3, c4, **kwargs):super(Inception, self).__init__(**kwargs)# 线路1,单1x1卷积层self.p1_1 = nn.Conv2d(in_channels, c1, kernel_size=1)# 线路2,1x1卷积层后接3x3卷积层self.p2_1 = nn.Conv2d(in_channels, c2[0], kernel_size=1)self.p2_2 = nn.Conv2d(c2[0], c2[1], kernel_size=3, padding=1)# 线路3,1x1卷积层后接5x5卷积层self.p3_1 = nn.Conv2d(in_channels, c3[0], kernel_size=1)self.p3_2 = nn.Conv2d(c3[0], c3[1], kernel_size=5, padding=2)# 线路4,3x3最大汇聚层后接1x1卷积层self.p4_1 = nn.MaxPool2d(kernel_size=3, stride=1, padding=1)self.p4_2 = nn.Conv2d(in_channels, c4, kernel_size=1)def forward(self, x):p1 = F.relu(self.p1_1(x))p2 = F.relu(self.p2_2(F.relu(self.p2_1(x))))p3 = F.relu(self.p3_2(F.relu(self.p3_1(x))))p4 = F.relu(self.p4_2(self.p4_1(x)))# 在通道维度上连结输出return torch.cat((p1, p2, p3, p4), dim=1)

Stage模块 实现:

b1 = nn.Sequential(nn.Conv2d(1, 64, kernel_size=7, stride=2, padding=3),nn.ReLU(),nn.MaxPool2d(kernel_size=3, stride=2, padding=1))
b2 = nn.Sequential(nn.Conv2d(64, 64, kernel_size=1),nn.ReLU(),nn.Conv2d(64, 192, kernel_size=3, padding=1),nn.ReLU(),nn.MaxPool2d(kernel_size=3, stride=2, padding=1))b3 = nn.Sequential(Inception(192, 64, (96, 128), (16, 32), 32),Inception(256, 128, (128, 192), (32, 96), 64),nn.MaxPool2d(kernel_size=3, stride=2, padding=1))b4 = nn.Sequential(Inception(480, 192, (96, 208), (16, 48), 64),Inception(512, 160, (112, 224), (24, 64), 64),Inception(512, 128, (128, 256), (24, 64), 64),Inception(512, 112, (144, 288), (32, 64), 64),Inception(528, 256, (160, 320), (32, 128), 128),nn.MaxPool2d(kernel_size=3, stride=2, padding=1))b5 = nn.Sequential(Inception(832, 256, (160, 320), (32, 128), 128),Inception(832, 384, (192, 384), (48, 128), 128),nn.AdaptiveAvgPool2d((1,1)),nn.Flatten())net = nn.Sequential(b1, b2, b3, b4, b5, nn.Linear(1024, 10))

模型构造:

X = torch.rand(size=(1, 1, 96, 96))
for layer in net:X = layer(X)print(layer.__class__.__name__,'output shape:\t', X.shape)输出:
Sequential output shape:     torch.Size([1, 64, 24, 24])
Sequential output shape:     torch.Size([1, 192, 12, 12])
Sequential output shape:     torch.Size([1, 480, 6, 6])
Sequential output shape:     torch.Size([1, 832, 3, 3])
Sequential output shape:     torch.Size([1, 1024])
Linear output shape:         torch.Size([1, 10])

训练模型:

lr, num_epochs, batch_size = 0.1, 10, 128
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size, resize=96)
d2l.train_ch6(net, train_iter, test_iter, num_epochs, lr, d2l.try_gpu())输出:
loss 0.262, train acc 0.900, test acc 0.886
3265.5 examples/sec on cuda:0

4. GoogLeNet的优势

与其他卷积神经网络相比,GoogLeNet 的优势主要体现在以下几个方面:

  1. 更高效的特征提取:Inception 模块能够同时捕获不同尺度的特征,使模型对图像信息的理解更加全面。

  2. 较少的参数:通过 1×1 卷积核的通道数压缩和全局平均池化层的使用,GoogLeNet 的参数数量显著减少。

  3. 辅助分类器的创新设计:辅助分类器在训练过程中提供额外的监督信号,帮助模型更快地收敛。

GoogLeNet 的创新设计不仅在图像分类任务中表现出色,还被广泛应用于目标检测、图像分割等领域。其多尺度特征提取的思想为后续的深度学习模型(如 Inception-v2、Inception-v3 等)提供了重要的启发,推动了卷积神经网络的不断发展。

在实际应用中,GoogLeNet 的多尺度特征提取能力使其在图像分类、目标检测和图像分割等任务中表现出色。尽管 GoogLeNet 在某些方面仍有改进空间,但它的设计理念和方法为深度学习领域的发展提供了重要的参考。未来,随着深度学习技术的不断进步,GoogLeNet 的创新思想将继续影响和推动这一领域的发展。

http://www.lryc.cn/news/619458.html

相关文章:

  • Perl——qw()函数
  • 【类与对象(下)】探秘C++构造函数初始化列表
  • [idekCTF 2025] diamond ticket
  • AAAI论文速递 | NEST:超图小世界网络让自动驾驶轨迹预测更精准
  • Java面试宝典:G1垃圾收集器下
  • C#面试题及详细答案120道(11-20)-- 面向对象编程(OOP)
  • AI抢饭碗,软件测试该何去何从?
  • TraeCN与Cursor对比分析:双雄争锋下的AI编程工具演进之路
  • Vue3 中 <script setup> 场景下,需要手动导入和不需要手动导入的内容整理
  • 第二十二天:指针与内存
  • TF - IDF算法面试与工作常见问题全解析
  • OpenCV常见问题汇总
  • 音视频处理新纪元:12款AI模型的语音转录和视频理解能力横评
  • 【计算机网络】王道考研笔记整理(4)网络层
  • OpenAI 回应“ChatGPT 用多了会变傻”
  • Debian新一代的APT软件源配置文件格式DEB822详解
  • 【C++详解】用红黑树封装模拟实现mymap、myset
  • 《论文阅读》从特质到移情:人格意识多模态移情反应生成 ACL 2025
  • 2025 环法战车科技对决!维乐 Angel Glide定义舒适新标
  • 用vscode开发和调试golang超简单教程
  • 【debian系统】cuda13和cudnn9.12详细安装步骤
  • Pytest项目_day15(yaml)
  • 肖臻《区块链技术与应用》第十二讲:比特币是匿名的吗?—— 深入解析匿名性、隐私风险与增强技术
  • 《算法导论》第 22 章 - 基本的图算法
  • Linux入门DAY23
  • 【从零开始java学习|第五篇】项目、模块、包、类的概念与联系
  • 解决:Gazebo连接模型数据库失败
  • 制作一款打飞机游戏90:完结
  • JavaSE高级-01
  • BGP 笔记梳理