当前位置: 首页 > news >正文

八 动手学深度学习v2 ——卷积神经网络之卷积+填充步幅+池化+LeNet

目录

  • 1. 图像卷积总结
  • 2. 填充和步幅 padding和stride
  • 3. 多输入多输出通道
  • 4. 池化层
  • 5. LeNet

1. 图像卷积总结

  • 二维卷积层的核心计算是二维互相关运算。最简单的形式是,对二维输入数据和卷积核执行互相关操作,然后添加一个偏置。
  • 核矩阵和偏移是可学习的参数
  • 核矩阵大小是超参数

2. 填充和步幅 padding和stride

  • 填充:
    在应用多层卷积时,我们常常丢失边缘像素。 由于我们通常使用小卷积核,因此对于任何单个卷积,我们可能只会丢失几个像素。 但随着我们应用许多连续卷积层,累积丢失的像素数就多了。 解决这个问题的简单方法即为填充(padding):在输入图像的边界填充元素(通常填充元素是0)。
  • 步幅:
    在计算互相关时,卷积窗口从输入张量的左上角开始,向下、向右滑动。 在前面的例子中,我们默认每次滑动一个元素。 但是,有时候为了高效计算或是缩减采样次数,卷积窗口可以跳过中间位置,每次滑动多个元素。
  • 总结:
    • 填充和步幅是卷积层的超参数
    • 填充在输入周围添加额外的行/列,来控制输出形状的减少量。
    • 步幅是每次滑动卷积核的行/列的步长,可以成倍的减少输出的形状。

3. 多输入多输出通道

总结:

  • 输出通道数是卷积层的超参数
  • 每个输入通道有独立的二维卷积核,所有输入通道结果相加一个输出通道结果
  • 每个输出通道 有 独立的三维卷积核

4. 池化层

  • max-pooling
  • average-pooling
    总结:
  • 池化层返回窗口中的最大或者平均值
  • 缓解卷积层对位置的敏感性
  • 同样有窗口大小、填充、和步幅作为 超参数
    为什么池化层用的少了
    池化层有两个作用
  1. 减少计算,如果用到stride>1,如果stride放在卷积,池化这个功能就没了。
  2. 缓解卷积层对位置的敏感性,但是我们会对数据本身做一些操作,放大,旋转,缩小,这样淡化了池化层的作用。

5. LeNet

在这里插入图片描述

http://www.lryc.cn/news/160340.html

相关文章:

  • SparkCore
  • 配置 Windows 系统环境变量
  • 【计算机视觉】图片文件格式的讲解
  • 2023最全的性能测试种类介绍,这6个种类特别重要!
  • 代码随想录算法训练营19期第43天
  • 微信小程序wx.previewImage实现图片预览
  • Java实现Modbus读写数据
  • C++11新特性⑤ | 仿函数与lambda表达式
  • 解决websocket不定时出现1005错误
  • 文章内容生成随机图像,并将这些图像上链
  • l8-d9 UDP通信实现
  • MongoDB复杂聚合查询与java中MongoTemplate的api对应
  • WireShark抓包工具的安装
  • 审计智能合约的成本是多少?如何审计智能合约?
  • 9.7 校招 内推 面经
  • 【网络编程】IO多路复用
  • MySQL与postgreSQL数据库的区别
  • 单片机电子元器件-按键
  • Nacos docker实现nacos高可用集群项目
  • 基于Dubbo实现服务的远程调用
  • Redis事务的理解
  • PostgreSQL安装异常,服务无法启动导致创建服务器超时
  • 汽车电子系统网络安全解决方案
  • 切片机制和MR工作机制
  • 【postgresql 基础入门】基础架构和命名空间层次,查看数据库对象再也不迷路
  • 是的,决定放弃算法去机器学习了
  • Python 03(循环语句)
  • 安科瑞铁塔基站能耗监控解决方案
  • 操作系统-线程复用
  • 通达信自定义副图行业指标K线指标 HYZS_QD