当前位置: 首页 > news >正文

ResNet学习笔记

《Deep Residual Learning for Image Recongition》:用于图像分类的深度残差学习。

ResNet(残差网络)是在2015年由微软研究院的Kaiming He等人提出的,旨在解决深度神经网络训练过程中的梯度消失、梯度爆炸问题,并允许网络构建得更深,以提高准确性。

现存问题:

1、非常深的神经网络难以训练,会存在梯度爆炸和梯度消失等情况,之前的解决方式是(1)选择合理的参数初始化方式,避免初始值过大或过小;(2)在中间层加入normalization,对参数进行标准化,如BN等。

2、网络较深后性能会变差,训练和测试精度都会变差,但这并不是由于过拟合(训练误差下降,测试误差上升)。

3、层数变多时精度变差:理论上来说,如果浅层网络学习到一个比较好的结果,那么增加深度后效果不会变差,因为增加的层会学习一个恒等映射(Identity Mapping)。但在实际中,优化器(SGD)无法实现这样的效果。

解决方案:残差学习

        显式地增加一个恒等映射分支(Residual Connection)。设当前浅层网络的输出是x,学习目标是H(x),则令新加入的层学习一个残差F(x) = H(x) - x,此时整个网络的输出就可以表示为F(x) + x,而网络的优化目标就 = F(x) = H(x) - x,即层学习输入与输出之间的差异。这意味着,如果一个输入需要通过网络传递到深层,网络可以通过恒等映射轻易实现这一点,通过层的权重接近于零来学习这一恒等映射。

为什么这么做?

1、不会增加任何需要学习的参数与网络复杂度;

2、此时增加网络深度就可以提升精度。

  • 增加残差连接前的梯度:\frac{\partial f(x)}{\partial x}
  • 增加残差连接后的梯度:\frac{\partial (f(x) + x)}{\partial x}=\frac{\partial f(x)}{\partial x}+1

ResNet50的结构:

        ResNet50是一种深度残差网络,它包含了50层深的卷积神经网络。ResNet的核心创新在于它使用了快捷连接或跳过连接,允许网络的激活跳过一个或多个层。在ResNet50中,这些连接帮助激活绕过两层卷积层直接连接到第三层,这是所谓的残差块的基础。

        ResNet50的网络结构大致可以分为五个主要部分,加上输入和输出层。在初始层,它使用一个7x7的卷积核和步幅为2的卷积操作,后面接最大池化层以降低特征图的空间尺寸。接下来的四个部分由3个,4个,6个和3个残差块组成,每个部分在结束时通过步幅为2的卷积减少特征图的大小。每个残差块内有三层卷积,分别使用1x1,3x3和1x1的卷积核,其中1x1卷积层主要用于降低和恢复维度,从而减少模型参数和计算量。

        在网络的末端,使用全局平均池化层代替了传统的全连接层来减少参数和模型的复杂度。最后,它通过一个全连接层和softmax激活函数来输出最终的分类结果。

        ResNet50的设计极大地减少了深层网络训练的难度,因为快捷连接帮助梯度直接流过整个网络,使得即便是很深的网络也可以用标准的随机梯度下降方法有效地训练。

残差块结构:

        每个残差块内的三个卷积层分别有不同的滤波器数量和大小(1x1,3x3,1x1)。1x1的卷积层用于降维和升维,从而减少计算量。

其他防止过拟合的方法:

1、early stop(提前停止):在模型开始过度拟合训练数据时停止训练,找到欠拟合和过拟合之间的“合适点”很重要。

2、Dropout:训练时随机丢弃隐藏层的神经元,使被丢弃的神经元输出为0,不再进行信号传递。

        使用Dropout可以减少神经元之间复杂的共适应性。当隐藏层神经元被随机删除之后,使得全连接网络具有了一定的稀疏性,从而有效地减轻了不同特征的协同效应。也就是说,有些特征可能会依赖于固定关系的隐含节点的共同作用,而通过Dropout的话,就有效地组织了某些特征在其他特征存在下才有效果的情况,增加了神经网络的鲁棒性。

3、正则化:在损失函数中增加正则项以作为惩罚,通过在学习过程中对大的权重进行惩罚,来抑制过拟合。

        神经网络的学习目的是减小损失函数的值。如果为损失函数加上权值的平方范数(L2范数),就可以抑制权重变得过大。用符号表示的话,如果将权重记为W,L2范数的权值衰减就是\frac{1}{2}\lambda W^{2},然后加到损失函数上。\lambda是控制正则化强度的超参数。\lambda设置得越大,对大的权重施加的惩罚就越严重,就会使W变小。一个直观地理解就是令W接近于0,从而消除这些隐藏神经元的影响,使网络变得简洁。两种常用的正则化技术是 L1 正则化和 L2 正则化。

        另一种理解是,当迫使w变小时,输出z也会是一个很小的值,此时模型便会趋于拟合一个线性函数。

4、Batch Normalization

        在网络的训练中,BN使得一个minibatch中的所有样本都被关联在了一起,因此网络不会从某一个训练样本生成确定的结果,即同样一个样本的输出不再仅仅取决于样本的本身,也取决于跟这个样本同属一个batch的其他样本,而每次网络都是随机取 batch,这样就会使得整个网络不会朝这一个方向使劲学习,一定程度上避免了过拟合。 

5、交叉验证

6、增加训练数据:提升模型的泛化性。 

7、特征选择:在构建模型时有许多用于预测结果的特征,而这些特征有些是不必要的,因此可以识别出训练数据中重要的特征,移除其他不重要的特征。此过程有助于简化模型并减少数据中的噪声。

http://www.lryc.cn/news/409260.html

相关文章:

  • 使用chainlit快速构建类似OPEN AI一样的对话网页
  • 【根据字符出现频率排序】python刷题记录
  • 活动报名小程序
  • unity基础问题
  • RedHat Enterprise Linux 7 YUM源(本地/网络源)配置详解
  • 关于顺序表数组下标的一些关系梳理
  • VS C++ Project(项目)的工作目录设置
  • STM32自定义协议串口接收解析指令程序
  • STM32——GPIO(点亮LEDLED闪烁)
  • VulnHub靶机入门篇--kioptrix.level 3
  • aiGPT系统源码★重大升级★AI写作/AI绘画/AI音乐/AI视频
  • Vue Router高级用法:动态路由与导航守卫
  • 江科大/江协科技 STM32学习笔记P9-11
  • 【培训通知】成为Power BI数据分析可视化实战第一人,加入3天直播即可
  • 24暑假算法刷题 | Day22 | LeetCode 77. 组合,216. 组合总和 III,17. 电话号码的字母组合
  • 一篇文章告诉你对讲机为什么不能被手机取代的7个原因
  • LION论文阅读
  • 在Android上实现汉字笔顺动画效果——HanZiWriter
  • 黑马头条vue2.0项目实战(一)——项目初始化
  • Unity Shader动画:用代码绘制动态视觉效果
  • 智税集成2.0生成凭证
  • B4005 [GESP202406 四级] 黑白方块 【暴力枚举】【前缀和】
  • 深度学习趋同性的量化探索:以多模态学习与联合嵌入为例
  • 决策树与随机森林:比较与应用场景分析
  • C#用Aspose.Cells导出Excel,.NET导出Excel
  • 天猫番茄品类TOP1,复购率超40%,「一颗大」如何策划极致产品力?
  • Docker搭建私有仓库harbor(docker 镜像仓库搭建)
  • 面试题:MySQL 索引
  • 云计算day13
  • 2024年孝感中级职称报名开始了吗?