当前位置: 首页 > news >正文

Batchnorm和Layernorm的区别

在深度学习训练中,我们经常会遇到这两个归一化操作,他们之间有什么区别呢?我们来简单介绍一下:

BatchNorm:

在深度学习训练的时候我们的数据如果没有经过预处理,有可能会出现梯度消失或者梯度爆炸的情况,那么应该怎么解决这个问题呢?所以我们经常会在训练之前和训练的时候使用标准处理,在CV中最常用的就是BN。我们先来看张动图:
在这里插入图片描述
从上面的动图中可以看出,BN是针对batch而言的,针对每一个batch的统一通道计算均值和方差进行归一化,因此batch越大,归一化的结果越好。
需要注意的是BN中实际上是四个参数,除了公式中的α\alphaαβ\betaβ 之外,还有两个隐晦的参数,统计均值和方差,我们知道在计算BN的时候是针对一个batch的,而batch的选择个整体的样本均值和方差是由差距的,英雌在计算的时候要不断地更新统计到的均值和方差,作为最终的统计均值和方差。

LayerNorm:

简单介绍layernorm,就是batchborm是针对一个batch的每个通道之间进行计算均值和方差,而layernorm是针对一个特征矩阵之间按照通道进行计算均值和方差,他只有两个参数,公式和BN是一样的。所以在CV中基本上不用这个归一化,没有什么意义。
除此之外,还有其他的归一化方法,如:GNIN等,用到的时候可以自己查阅一下资料,下面贴张图:
在这里插入图片描述
以上只是对batchnorm和layernorm做一个简单的介绍,并没有深入剖析,如有错误,敬请指正。

http://www.lryc.cn/news/23036.html

相关文章:

  • 高级前端面试题汇总
  • HTML#5表单标签
  • ONNX可视化与编辑工具
  • Verilog 学习第五节(串口接收部分)
  • AIX系统常见漏洞修复(exec、rlogin、rsh、ftp、telnet远端服务运行中)
  • IEEE SLT 2022论文丨如何利用x-vectors提升语音鉴伪系统性能?
  • 设计模式(十三)----结构型模式之桥接模式
  • 倾向得分匹配案例分析
  • 基于SpringCloud的可靠消息最终一致性04:项目基础代码
  • 操作系统权限提升(十八)之Linux提权-内核提权
  • 华为OD机试真题Java实现【快递运输】真题+解题思路+代码(20222023
  • java面试题-JVM问题排查
  • 市场上有很多低代码开发平台,不懂编程的人可以用哪些?
  • Tina_Linux打包流程说明指南_new
  • JVM面试题
  • @FeignClient注解
  • 一文搞懂如何在 React 中使用 防抖(Debounce)和 节流(Throttle)
  • Airbyte API
  • vue项目使用Electron开发桌面应用
  • std::chrono笔记
  • 接收arp请求并发送回应的实例
  • 【高性能计算】TVM使用TE手动优化矩阵乘法算法解析与代码解读
  • 消息中间件的概念
  • 窃密恶意软件Raccoon最新样本Stealer v2分析
  • 足球俱乐部管理系统
  • 2023上半年数学建模竞赛汇总(比赛时间、难易程度、含金量、竞赛官网)
  • 【python学习笔记】:PHP7 Null合并运算符
  • 数据结构与算法——3.时间复杂度分析1(概述)
  • FPGA学习之日常工作复位电路
  • 【洛谷 P1177】【模板】快速排序 题解(快速排序+指针)