当前位置: 首页 > news >正文

使用块的网络 VGG

一、AlexNet与VGG

1、深度学习追求更深更大,使用VGG将卷积层组合为块

2、VGG块:3*3卷积(pad=1,n层,m通道)、2*2最大池化层

二、VGG架构

1、多个VGG块后接全连接层

2、不同次数的重复块得到不同的架构,eg:VGG-16(卷积层和全连接层相加的总数)

三、总结

1、VGG-11使用可复用的卷积块构造网络。不同的VGG模型可通过每个块中卷积层数量和输出通道数量的差异来定义。

2、块的使用导致网络定义的非常简洁。使用块可以有效地设计复杂的网络。

3、深层且窄的卷积(即3×3)比较浅层且宽的卷积更有效

四、代码

1、VGG块

import torch
from torch import nn
from d2l import torch as d2ldef vgg_block(num_convs, in_channels, out_channels):layers = []for _ in range(num_convs):layers.append(nn.Conv2d(in_channels, out_channels,kernel_size=3, padding=1))layers.append(nn.ReLU())in_channels = out_channelslayers.append(nn.MaxPool2d(kernel_size=2,stride=2))return nn.Sequential(*layers)

2、VGG网络

def vgg(conv_arch):conv_blks = []in_channels = 1# 卷积层部分# num_convs一块里有多少个层for (num_convs, out_channels) in conv_arch:conv_blks.append(vgg_block(num_convs, in_channels, out_channels))in_channels = out_channelsreturn nn.Sequential(*conv_blks, nn.Flatten(),# 全连接层部分nn.Linear(out_channels * 7 * 7, 4096), nn.ReLU(), nn.Dropout(0.5),nn.Linear(4096, 4096), nn.ReLU(), nn.Dropout(0.5),nn.Linear(4096, 10))net = vgg(conv_arch)
http://www.lryc.cn/news/393431.html

相关文章:

  • 微信小程序性能与体验优化
  • Android14之获取包名/类名/服务名(二百二十三)
  • FreeU: Free Lunch in Diffusion U-Net——【代码复现】
  • 第三方商城对接重构(HF202407)
  • 如何在Windows 11上复制文件和文件夹路径?这里提供几种方法
  • 大数据Spark 面经
  • 绝区叁--如何在移动设备上本地运行LLM
  • Interview preparation--Https 工作流程
  • 集成学习(三)GBDT 梯度提升树
  • 后端工作之一:CrapApi —— API接口管理系统部署
  • 20240706 xenomai系统中网口(m2/minipcie I210网卡)的实时驱动更换
  • 模型训练之数据集
  • 【TB作品】数码管独立按键密码锁,ATMEGA16单片机,Proteus仿真 atmega16数码管独立按键密码锁
  • 数据库主从复制
  • 昇思25天学习打卡营第13天|BERT
  • 跨平台书签管理器 - Raindrop
  • 均匀采样信号的鲁棒Savistky-Golay滤波(MATLAB)
  • c++ 可以再头文件种直接给成员变量赋值吗
  • 47.HOOK引擎优化支持CALL与JMP位置做HOOK
  • liunx上修改Firefox版本号
  • bug——多重定义
  • 将堆内存的最小值(Xms)与最大值(Xmx)设置为相同的配置,可以防止JVM在运行过程中根据需要动态调整堆内存大小
  • 安装 tesseract
  • 为适配kubelet:v0.4 安装指定版本的docker
  • vivado CLOCK_REGION、CLOCK_ROOT
  • alphazero学习
  • 剖析DeFi交易产品之UniswapV3:交易路由合约
  • Agent下载安装步骤
  • 2024年AI技术深入研究
  • Apache Seata分布式事务启用Nacos做配置中心