当前位置: 首页 > news >正文

【深度学习】神经网络和深度学习--卷积和池化的作用

深度学习通常指训练大型深度的神经网络的过程。

  • 与传统的神经网络模型相比,深度学习模型在结构上与之非常相似;
  • 不同的是,深度学习模型的“深度”更大,“深度”的体现就是神经网络层数多,神经网络每一层的结点数多。
    本章介绍两种深度神经网络——卷积神经网络和循环神经网络,以及它们分别在图像处理、文本处理和语音处理上的效果。
  1. 卷积神经网络(CNN)
    与普通神经网络相比,卷积神经网络引入了“卷积”和“池化”两个操作。
    *卷积”操作的思想 采用一个较小的卷积核,例如 3×3 的矩阵,来对图像特征进行局部的提取。这样做可以增加参数的共享,减少随着神经网络变深、结点数变多而带来的巨大计算量。
    *池化”操作的思想 采用一种过滤的方法,去除冗余信息并且加快计算。池化可以将一个 4×4 的图像切割成 4 个 2×2 的小矩阵,在每个小矩阵中取最大值,所得结果形成一个新矩阵。这种操作,可以减少神经网络结点的个数,加快计算速度。
    在卷积神经网络中,通常某一个层都是在做卷积处理,某一层都是在做池化处理。一般,它们都是在层次之间交替进行的。经过多层卷积、池化操作后,所得特征图的分辨率远小于输入图像的分辨率,减少了计算量,加快了计算速度。
    在这里插入图片描述
    池化层夹在连续的卷积层中间, 用于压缩数据和参数的量。
    简而言之,如果输入是图像的话,那么池化层的最主要作用就是压缩图像。
    个人理解的同图片resize方法类似(双线性插值法,邻近法),只不过池化层用的是取最大值法。
    个人觉得主要是两个作用:

invariance(不变性),这种不变性包括translation(平移),rotation(旋转),scale(尺度)
保留主要的特征同时减少参数(降维,效果类似PCA)和计算量,防止过拟合,提高模型泛化能力。
但印象里,新paper都爱用1X1的卷积来取代池化了。

http://www.lryc.cn/news/38038.html

相关文章:

  • 锦正茂风冷系列电源JCP-10-80的技术参数
  • Idea+maven+spring-cloud项目搭建系列--11-1 dubbo(zookeeper,nacos)注册中心
  • Python3入门教程||Python3 迭代器与生成器||Python3 函数
  • 快速幂算法
  • Hudi:问题总结(2)Flink-1.13.1消费kafka并插入hudi
  • Application工具方法
  • 电脑游戏怎么录屏?其实很简单,只需要简单3步
  • 【设计模式】go语言中的 [函数选项,单例,工厂,责任链] 常用的设计模式
  • 2017系统分析师案例分析真题背记内容
  • C++和C的区别
  • 【React教程】一、React简介
  • 运动蓝牙耳机什么牌子好,比较好的运动蓝牙耳机推荐
  • [深入理解SSD系列 闪存实战2.1] NAND FLASH特性串烧 | 不了解闪存特性,你能用好闪存产品吗?
  • DJI ROS dji_sdk 源码分析|整体框架
  • HT32合泰单片机开发环境搭建和配置教程
  • 动态内存分配之伙伴算法
  • CGAL 根据扫描线方向和角度对法向量进行重定向
  • 一个C#开发的开源的快速启动工具
  • Paddle项目调试记录
  • 3月11日,30秒知全网,精选7个热点
  • C win32基础学习(四)
  • Java 日期时间API(Java 8及以上)
  • DHCP的配置
  • JavaWeb14-线程池
  • [qiankun+nuxt]子应用请求本地文件报错404
  • 【Qt网络编程】实现TCP协议通信
  • Webpack打包———处理样式资源
  • VP记录:Codeforces Round 857 (Div. 2) A~D
  • Docker常用项目实战演练
  • Linux进程间通信-FIFO命名管道