当前位置: 首页 > news >正文

〖open-mmlab: MMDetection〗解析文件:configs/_base_/schedules

详细解析三个训练调度文件:schedule_1x.py、schedule_2x.py、schedule_20e.py

在深度学习模型训练过程中,训练调度(Training Schedule)是至关重要的,它决定了模型训练过程中学习率(Learning Rate, LR)的变化以及训练的总轮数(Epochs)。本文将详细解析三个训练调度文件:schedule_1x.pyschedule_2x.pyschedule_20e.py,这三个文件分别对应不同的训练时长和策略。

区别

这三个文件的主要区别在于训练的总轮数(max_epochs)和学习率调度策略(param_scheduler)中的milestones参数。max_epochs决定了训练的总轮数,而milestones参数则定义了在哪些epoch时学习率会进行衰减。

  • schedule_1x.py:训练总轮数为12轮,学习率在第8轮和第11轮时衰减。
  • schedule_2x.py:训练总轮数为24轮,学习率在第16轮和第22轮时衰减。
  • schedule_20e.py:训练总轮数为20轮,学习率在第16轮和第19轮时衰减。

schedule_1x.py 解析

# training schedule for 1x
train_cfg = dict(type='EpochBasedTrainLoop', max_epochs=12, val_interval=1)
val_cfg = dict(type='ValLoop')
test_cfg = dict(type='TestLoop')# learning rate
param_scheduler = [dict(type='LinearLR', start_factor=0.001, by_epoch=False, begin=0, end=500),dict(type='MultiStepLR',begin=0,end=12,by_epoch=True,milestones=[8, 11],gamma=0.1)
]# optimizer
optim_wrapper = dict(type='OptimWrapper',optimizer=dict(type='SGD', lr=0.02, momentum=0.9, weight_decay=0.0001))# Default setting for scaling LR automatically
#   - `enable` means enable scaling LR automatically
#       or not by default.
#   - `base_batch_size` = (8 GPUs) x (2 samples per GPU).
auto_scale_lr = dict(enable=False, base_batch_size=16)

训练配置(train_cfg

  • type: 'EpochBasedTrainLoop',表示训练循环是基于epoch的。
  • max_epochs: 12,训练的总轮数为12轮。
  • val_interval: 1,表示每1轮进行一次验证。

验证和测试配置(val_cfgtest_cfg

  • 两者都设置为默认的循环配置。

学习率调度(param_scheduler

  • 首先使用LinearLR,从0开始线性增加到start_factor=0.001,直到end=500迭代。
  • 然后使用MultiStepLR,在第8轮和第11轮时,学习率乘以gamma=0.1进行衰减。

优化器配置(optim_wrapper

  • 使用SGD作为优化器,初始学习率为0.02,动量为0.9,权重衰减为0.0001

自动缩放学习率(auto_scale_lr

  • enable: False,表示不自动缩放学习率。
  • base_batch_size: 16,基础批量大小。

schedule_2x.py 解析

# training schedule for 2x
train_cfg = dict(type='EpochBasedTrainLoop', max_epochs=24, val_interval=1)
val_cfg = dict(type='ValLoop')
test_cfg = dict(type='TestLoop')# learning rate
param_scheduler = [dict(type='LinearLR', start_factor=0.001, by_epoch=False, begin=0, end=500),dict(type='MultiStepLR',begin=0,end=24,by_epoch=True,milestones=[16, 22],gamma=0.1)
]# optimizer
optim_wrapper = dict(type='OptimWrapper',optimizer=dict(type='SGD', lr=0.02, momentum=0.9, weight_decay=0.0001))# Default setting for scaling LR automatically
#   - `enable` means enable scaling LR automatically
#       or not by default.
#   - `base_batch_size` = (8 GPUs) x (2 samples per GPU).
auto_scale_lr = dict(enable=False, base_batch_size=16)

训练配置(train_cfg

  • max_epochs: 24,训练的总轮数为24轮。

学习率调度(param_scheduler

  • 使用MultiStepLR,在第16轮和第22轮时,学习率乘以gamma=0.1进行衰减。

schedule_20e.py 解析

# training schedule for 20e
train_cfg = dict(type='EpochBasedTrainLoop', max_epochs=20, val_interval=1)
val_cfg = dict(type='ValLoop')
test_cfg = dict(type='TestLoop')# learning rate
param_scheduler = [dict(type='LinearLR', start_factor=0.001, by_epoch=False, begin=0, end=500),dict(type='MultiStepLR',begin=0,end=20,by_epoch=True,milestones=[16, 19],gamma=0.1)
]# optimizer
optim_wrapper = dict(type='OptimWrapper',optimizer=dict(type='SGD', lr=0.02, momentum=0.9, weight_decay=0.0001))# Default setting for scaling LR automatically
#   - `enable` means enable scaling LR automatically
#       or not by default.
#   - `base_batch_size` = (8 GPUs) x (2 samples per GPU).
auto_scale_lr = dict(enable=False, base_batch_size=16)

训练配置(train_cfg

  • max_epochs: 20,训练的总轮数为20轮。

学习率调度(param_scheduler

  • 使用MultiStepLR,在第16轮和第19轮时,学习率乘以gamma=0.1进行衰减。

总结

这三个训练调度文件主要区别在于训练的总轮数和学习率衰减的时机。通过调整这些参数,可以控制模型的训练过程,以达到更好的训练效果。在实际应用中,根据模型的复杂度和训练数据的量,可以灵活选择或调整这些参数。

http://www.lryc.cn/news/433381.html

相关文章:

  • Android之Handler是如何保证延迟发送的
  • 定位信标、基站、标签,定位信标是什么
  • 2024国赛数学建模B题完整分析参考论文38页(含模型和可运行代码)
  • Hive是什么?
  • 计算机网络:http协议
  • 【stata】自写命令分享dynamic_est,一键生成dynamic effect
  • 文心一言 VS 讯飞星火 VS chatgpt (342)-- 算法导论23.2 1题
  • 部署若依Spring boot项目
  • oc打包:权限弹窗无法正常弹出
  • 深入理解RxJava:响应式编程的现代方式
  • Maven 依赖漏洞扫描检查插件 dependency-check-maven 的使用
  • 2. 下载rknn-toolkit2项目
  • xhr、ajax、axois、fetch的区别
  • 【HuggingFace Transformers】OpenAIGPTModel源码解析
  • macOS安装Java和Maven
  • SpringBoot教程(安装篇) | Elasticsearch的安装
  • 前端登录鉴权——以若依Ruoyi前后端分离项目为例解读
  • 【Tools】大模型中的自注意力机制
  • PhotoZoom Classic 9软件新功能特性及安装激活图文教程
  • 【数据结构】直接插入排序
  • JavaScript 实现虚拟滚动技术
  • 【重学 MySQL】十八、逻辑运算符的使用
  • 关于 QImage原始数据格式与cv::Mat原始数据进行手码数据转换 的解决方法
  • 前端WebSocket客户端实现
  • 读取realsense d455双目及imu
  • 浮点的运算
  • 对随机游走问题的分析特定行为模式的建模
  • JVM面试(七)G1垃圾收集器剖析
  • php转职golang第一期
  • java后端服务监控与告警:Prometheus与Grafana集成