Day50
ResNet18是一种深度残差网络,核心特点是通过“残差连接”解决深层网络训练难的问题,结构简洁,以下是解释:
核心:残差块(Residual Block)
可以理解为网络的“基本积木”,每个残差块包含:
• 两层卷积(3x3大小,比如先压缩通道数,再恢复)
• 一个“跳跃连接”:把输入直接加到两层卷积的输出上(像给网络“抄近道”)
这样设计的好处:避免深层网络“学不到东西”,让网络更关注“输入和输出的差异”(残差),训练更高效。
整体结构(共18层卷积)
1. 初始层:
◦ 1个7x7大卷积(压缩图片尺寸,提取基础特征)
◦ 1个3x3最大池化(进一步缩小图片)
2. 残差块堆叠(4组):
◦ 第1组:2个残差块(共4层卷积)
◦ 第2组:2个残差块(共4层卷积)
◦ 第3组:2个残差块(共4层卷积)
◦ 第4组:2个残差块(共4层卷积)
每组的残差块会逐步增加输出通道数,让特征更丰富
3. 收尾层:
◦ 全局平均池化(把特征压缩成固定长度)
◦ 全连接层(输出分类结果,比如识别图片是猫还是狗)
简单说,ResNet18就像用8个“残差块积木”(每个含2层卷积)搭起来的网络,加上开头和结尾的处理层,总共18层卷积,靠“抄近道”的残差连接实现了深层网络的有效训练。
@浙大疏锦行