当前位置: 首页 > news >正文

model.train()和model.eval()两种模式的原理

1. model.train()

在使用 pytorch 构建神经网络的时候,训练过程中会在程序上方添加一句model.train(),作用是 启用 batch normalization 和 dropout 。

如果模型中有BN层(Batch Normalization)和 Dropout ,需要在 训练时 添加 model.train()。

model.train() 是保证 BN 层能够用到 每一批数据 的均值和方差。对于 Dropout,model.train() 是 随机取一部分 网络连接来训练更新参数。

2. model.eval()

model.eval()的作用是 不启用 Batch Normalization 和 Dropout。

如果模型中有 BN 层(Batch Normalization)和 Dropout,在 测试时 添加 model.eval()。

model.eval() 是保证 BN 层能够用 全部训练数据 的均值和方差,即测试过程中要保证 BN 层的均值和方差不变。对于 Dropout,model.eval() 是利用到了 所有 网络连接,即不进行随机舍弃神经元。

为什么测试时要用 model.eval() ?

训练完 train 样本后,生成的模型 model 要用来测试样本了。在 model(test) 之前,需要加上model.eval(),否则的话,有输入数据,即使不训练,它也会改变权值。这是 model 中含有 BN 层和 Dropout 所带来的的性质。

eval() 时,pytorch 会自动把 BN 和 DropOut 固定住,不会取平均,而是用训练好的值。
不然的话,一旦 test 的 batch_size 过小,很容易就会被 BN 层导致生成图片颜色失真极大。
eval() 在非训练的时候是需要加的,没有这句代码,一些网络层的值会发生变动,不会固定,你神经网络每一次生成的结果也是不固定的,生成质量可能好也可能不好。

也就是说,测试过程中使用model.eval(),这时神经网络会 沿用 batch normalization 的值,而并 不使用 dropout。

http://www.lryc.cn/news/302500.html

相关文章:

  • docker的底层原理六: 联合文件系统(UnionFS)
  • 【动态规划专栏】专题一:斐波那契数列模型--------1.第N个泰波那契数
  • 自养号测评低成本高效率推广,安全可控
  • ubuntu22.04@laptop OpenCV Get Started: 015_deep_learning_with_opencv_dnn_module
  • 【elk查日志 elastic(kibana)】
  • RapidMiner数据挖掘2 —— 初识RapidMiner
  • 基于STM32的光照检测系统设计
  • 车辆管理系统设计与实践
  • 板块一 Servlet编程:第四节 HttpServletResponse对象全解与重定向 来自【汤米尼克的JAVAEE全套教程专栏】
  • 漫谈:C/C++ char 和 unsigned char 的用途
  • 安全保护制度
  • 沁恒CH32V30X学习笔记07---多功能按键框架使用
  • 如何看显卡是几G?
  • 虚拟机--pc端和macOS端互通
  • (14)Hive调优——合并小文件
  • Linux 驱动开发基础知识——LED 模板驱动程序的改造:设备树(十一)
  • 学习文档:QT QTreeWidget及其代理
  • 代码随想录算法训练营——总结篇
  • 更改WordPress作者存档链接author和用户名插件Change Author Link Structure
  • Kernelized Correlation Filters KCF算法原理详解(阅读笔记)(待补充)
  • 安卓游戏开发之图形渲染技术优劣分析
  • python+django+vue汽车票在线预订系统58ip7
  • 2024-2-19
  • ARM体系在linux中的中断抢占
  • STM32的FLASH操作
  • electron Tab加载动画开启和关闭
  • 深度学习发展的艺术
  • las数据转pcd数据
  • HTTP缓存技术
  • USACO 2024年1月铜组 MAJORITY OPINION