当前位置: 首页 > news >正文

神经网络与深度学习第四章前馈神经网络习题解答

[习题4-1] 对于一个神经元\sigma \left ( w^{T} x+b\right)  ,并使用梯度下降优化参数w时,如果输入x恒大于0,其收敛速度会比零均值化的输入更慢。

首先看一下CSDN的解释:

如果输入x恒大于0,使用sigmoid作为激活函数的神经元的输出值将会处于饱和状态,导致其梯度接近于0,这会使得梯度下降算法的收敛速度变慢。而如果输入经过零均值化处理,可以使得输出值的均值为0,避免了sigmoid函数的非0均值问题,从而减少了梯度消失的风险,提高了梯度下降算法的收敛速度。因此,使用零均值化的输入可以加速神经网络的训练过程。

结合图1理解一下:

图1

说一下我的理解:

首先,神经元对w求导后的结果为\sigma \left ( 1-\sigma \right )x,此处\sigma作sigmod激活函数,我们知道sigmod的激活函数图如下:

可以看出,如果\sigma \left ( 1-\sigma \right )是恒大于0的,其次,若x恒大于0,会导致x进入神经元后,经过\sigma的输出值接近饱和状态(在0.5-1范围内),而\sigma \left ( 1-\sigma \right )的最大\sigma为0.5,说明当x大于0的时候,\sigma \left ( 1-\sigma \right )x肯定不是沿着最大的负梯度方向进行下降的,而是以曲折抖动的方式进行下降(结合图1),但是以零均值化的方式,可以最大程度的保证数据沿着最大的负梯度方向进行下降,所以当x恒大于0时,收敛速度要慢于零均值化的输入。

再举个形象的例子,比如你要从山顶走到山谷,你直线走下去即为最大负梯度方向,收敛快,但是你要很贪心的曲折的走,虽然在朝着山谷的方向走,但不是最快的方向,你同样可以到达终点,但是你的速度相较于直线走肯定是要慢的,条条大路通罗马,但是不可能全部人都走最快的大路,也有人走蜿蜒曲折的小路。

http://www.lryc.cn/news/208874.html

相关文章:

  • Go 语言操作 MongoDb
  • UE4/5 竖排文字文本
  • centos jdk 安装
  • 【计算机网络】什么是HTTPS?HTTPS为什么是安全的?
  • Windows-Oracle19c 安装详解-含Navicate远程连接配置 - 同时连接Oracle11g和Oracle19c
  • 文件权限详解
  • 在声明和定义的一些小坑
  • 浏览器事件循环 (event loop)
  • P1868 饥饿的奶牛
  • 【软考系统架构设计师】2021年系统架构师综合知识真题及解析
  • 如何在忘记手机密码或图案时重置 Android 手机?
  • LeetCode每日一题——2520. Count the Digits That Divide a Number
  • 论文阅读——DistilBERT
  • 202212 青少年等级考试机器人实操真题三级
  • token正确不报错,token失效后却出现报跨域错误
  • STM32中除零运算,为何程序不崩溃?
  • sprinbboot 2.7启动不生成日志文件
  • Kafka - 3.x 图解Broker总体工作流程
  • APP自动化测试 ---- Appium介绍及运行原理
  • 学习模板发布
  • Hive 视图和索引
  • EtherCAT主站SOEM-- 0 SOEM下载编译及文件功能介绍
  • 【Python机器学习】零基础掌握RFE特征选择
  • R语言的极值统计学、分位数回归、机器学习方法
  • 【SpringCloudNetflix】一图理解Spring Cloud Netflix解决了那些微服务问题?
  • C++环境配置【学习笔记(一)】
  • Python数据结构——树
  • Simulink和GUI联合使用
  • 【0基础学Java第一课】-- 初始Java
  • osg3.4的插件及功能