当前位置: 首页 > news >正文

CNN-day9-经典神经网络ResNet

day10-经典神经网络ResNet

1 梯度消失问题

深层网络有个梯度消失问题:模型变深时,其错误率反而会提升,该问题非过拟合引起,主要是因为梯度消失而导致参数难以学习和更新。

2 网络创新

2015年何凯明等人提出deep residual network。在加入残存后,不能保证效果变好,但不会变差。

3 Residual结构

Residual结构是残差结构,在文章中给了两种不同的残差结构,

在ResNet-18和ResNet-34中,用的如下图中左侧图的结构,

在ResNet-50、ResNet-101和ResNet-152中,用的是下图中右侧图的结构。

右图:

1x1:通道之间进行特征融合,降维,降低参数量

3x3:特征提取

1x1:升维,和原始输入数据进行相加,形状要保持一致。特征提取。

左图可看到输入特征的channels是64,经过一个3x3的卷积核卷积之后,进行Relu激活,再经过一个3x3的卷积核进行卷积,但并没有直接激活。并且可以看到,在主分支上有一个圆弧的线从输入特征矩阵直接到加号,这个圆弧线是shortcut(捷径分支),它直接将输入特征矩阵加到经过第二次3x3的卷积核卷积之后的输出特征矩阵,再经过Relu激活函数进行激活。

右侧图输入特征的channels是256,要先经过一个1x1的卷积,降维到64,然后用3x3的卷积进行特征提取,并通过1x1的卷积进行升维到256,之后和shortcut的输入矩阵进行对应维度加法运算,在相加之后,再经过Relu激活。

4 网络结构

5 性能

通过使用残差连接,使得更深的网络具有更低的错误率。

6 变换策略影响

不同尺度的特征相加时,采用不同的维度变换策略。

三种变换策略:

(A):在升维时使用补零

(B):在升维时使用1x1卷积进行映射

(C):所有残差连接使用1x1卷积进行映射

7 代码实现

http://www.lryc.cn/news/533382.html

相关文章:

  • 淘宝分类详情数据获取:Python爬虫的高效实现
  • 机器学习 —— 深入剖析线性回归模型
  • 33.日常算法
  • #渗透测试#批量漏洞挖掘#微商城系统 goods SQL注入漏洞
  • 【翻译+论文阅读】DeepSeek-R1评测:粉碎GPT-4和Claude 3.5的开源AI革命
  • Vision Transformer学习笔记(2020 ICLR)
  • 一步一步生成音乐类小程序的详细指南,结合AI辅助开发的思路
  • 25/2/8 <机器人基础> 阻抗控制
  • golang 开启HTTP代理认证
  • 详解Nginx no live upstreams while connecting to upstream
  • Open3d Qt的环境配置
  • 5.Python字典和元组:字典的增删改查、字典遍历、访问元组、修改元组、集合(set)
  • 深度学习系列--04.梯度下降以及其他优化器
  • 2022java面试总结,1000道(集合+JVM+并发编程+Spring+Mybatis)的Java高频面试题
  • Ubuntu MKL(Intel Math Kernel Library)
  • 消费电子产品中的噪声对TPS54202的影响
  • 第四十章:职场转折:突破困境,重新出发
  • c++ 不定参数,不定类型的 max,min 函数
  • 数据库的关系代数
  • VSCode使用总结
  • 关系模型的数据结构及形式化定义
  • 【C++入门讲解】
  • 数据表中的视图操作
  • BFS算法篇——广度优先搜索,探索未知的旅程(上)
  • mongodb 使用内存过大分析
  • CNN-day5-经典神经网络LeNets5
  • 登录到docker里
  • 利用PHP爬虫开发获取淘宝分类详情:解锁电商数据新视角
  • LeetCode 142题解|环形链表II的快慢指针法(含数学证明)
  • [图文]课程讲解片段-Fowler分析模式的剖析和实现01