当前位置: 首页 > news >正文

EfficientNet论文笔记

EfficientNet论文笔记

通过NAS平衡了channel,depth,resolution,发现在相同的FLOPs下,同时增加 depth和 resolution的效果最好。

数据集效果小于resolution怎么办?

figure4img

EfficientNet—b0框架

表格中每个MBConv后会跟一个数字1或6,这里的1或6就是倍率因子n,即MBConv中第一个1x1的卷积层会将输入特征矩阵的channels扩充为n倍,其中k3x3或k5x5表示MBConv中Depthwise Conv所采用的卷积核大小。Channels表示通过该Stage后输出特征矩阵的Channels。

EfficientNetb0

MBConv结构

mbblock

Swish激活函数+SE模块

  1. 第一个升维的1x1卷积层,它的卷积核个数是输入特征矩阵channel的n倍,当n等于1不需要该层。
  2. 仅当输入MBConv结构的特征矩阵与输出的特征矩阵shape相同时才使用。在源码实现中只有使用shortcut的时候才有Dropout层。

SE模块:

第一个激活函数替换成Swish激活函数

semodule

其他版本的详细参数:

在这里插入图片描述

  1. input_size代表训练网络时输入网络的图像大小
  2. width_coefficient代表channel维度上的倍率因子,比如在 EfficientNetB0中Stage1的3x3卷积层所使用的卷积核个数是32,那么在B6中就是 32 × 1.8 = 57.6接着取整到离它最近的8的整数倍即56,其它Stage同理(加速运算)。
  3. depth_coefficient代表depth维度上的倍率因子(仅针对Stage2到Stage8),比如在EfficientNetB0中Stage7的 Li=4,那么在B6中就是 4(block) × 2.6 = 10.4 接着向上取整即11
  4. drop_connect_rate是在MBConv结构中dropout层使用的drop_rate,
  5. dropout_rate是最后一个全连接层前的dropout层(在stage9的Pooling与FC之间)的dropout_rate。

NAS:Neural Architecture Search

强化学习

img

http://www.lryc.cn/news/95094.html

相关文章:

  • 系统学习Linux-SSH远程服务(二)
  • PyTorch训练RNN, GRU, LSTM:手写数字识别
  • 基于深度学习的高精度道路瑕疵检测系统(PyTorch+Pyside6+YOLOv5模型)
  • 【裸辞转行】是告别,也是新的开始
  • 了解交换机接口的链路类型(access、trunk、hybrid)
  • Android系统启动流程分析
  • 如何在Ubuntu上安装OpenneBula
  • 解决MySQL中分页查询时多页有重复数据,实际只有一条数据的问题
  • 【数据结构】时间复杂度---OJ练习题
  • 京东自动化功能之商品信息监控是否有库存
  • 【SwitchyOmega】SwitchyOmega 安装及使用
  • CentOS5678 repo源 地址 阿里云开源镜像站
  • 【LLM】Langchain使用[二](模型链)
  • 简单机器学习工程化过程
  • 【MongoDB】SpringBoot整合MongoDB
  • 关于游戏引擎(godot)对齐音乐bpm的技术
  • 【Go】实现一个代理Kerberos环境部分组件控制台的Web服务
  • Spring Security 6.x 系列【63】扩展篇之匿名认证
  • 供应链管理系统有哪些?
  • 如何在PADS Logic中查找器件
  • Android 生成pdf文件
  • Kafka 入门到起飞 - 生产者发送消息流程解析
  • 基于单片机智能台灯坐姿矫正器视力保护器的设计与实现
  • 欧姆龙以太网模块如何设置ip连接 Kepware opc步骤
  • PLEX如何搭建个人局域网的视频网站
  • java学习02
  • libcurl库使用实例
  • 大数据存储架构详解:数据仓库、数据集市、数据湖、数据网格、湖仓一体
  • ESP32(MicroPython) 网页控制五自由度机械臂
  • 前端笔记_OAuth规则机制下实现个人站点接入qq三方登录