当前位置: 首页 > news >正文

浅度解读-(未完成版)浅层神经网络-多个隐层神经元

在这里插入图片描述

文章目录

    • 浅层神经网络的前向传播
      • 计算流程
        • 矩阵在运算时形状的变化
    • 激活函数的作用
      • 为什么要有激活函数
    • 反向传播

浅层神经网络的前向传播

计算流程

线性变换-神经元a1
线性变换-神经元a2
线性变换-神经元a3
线性变换-神经元a4
线性变换
第一层
第二层
输入特征x
激活函数(z)
sigmoid(z)激活函数
输入特征x
激活函数(z)
sigmoid(z)激活函数

第一个激活函数是为了把线性变换的各条线变成更便于拟合的,具有非线性特征的线
第二个线性变换是为了把这些具有非线性特征的线拟合成一条线
第二个激活函数是为了把结果限制在0-1之间

与单神经元相比,不同在于每个不同的神经元对相同的输入有不同权
在这里插入图片描述
n*m n为隐层神经元个数,m为输入的特征x的数目

  • 这是W权重的矩阵
输入的特征xx1x2x3xm
神经元
a1
a2
a3
a4
an

而在单神经元中 w w w仅有一行

矩阵在运算时形状的变化

n 是隐层神经元的个数, m 是特征 x 的数目(一个样本里有 m 个 x ), M 是样本数目 n是隐层神经元的个数,m是特征x的数目(一个样本里有m个x),M是样本数目 n是隐层神经元的个数,m是特征x的数目(一个样本里有mx),M是样本数目

  • 前向过程计算:

第一步,各神经元线性代换 第一步,各神经元线性代换 第一步,各神经元线性代换
z [ 1 ] = W [ 1 ] x + b [ 1 ] ( 形状: ( n , M ) = ( n , m ) ∗ ( m , M ) + ( M , 1 ) ) z^{[1]} = W^{[1]}x + b^{[1]} (形状:(n,M) = (n,m) * (m,M) + (M,1)) z[1]=W[1]x+b[1](形状:(n,M)=(n,m)(m,M)+(M,1))

第二步,对各神经元的代换结果进行激活函数 ( z ) 第二步,对各神经元的代换结果进行激活函数(z) 第二步,对各神经元的代换结果进行激活函数(z)
a [ 1 ] = σ ( z [ 1 ] ) ( 形状: ( n , M ) ) a^{[1]} = \sigma(z^{[1]}) (形状:(n,M)) a[1]=σ(z[1])(形状:(n,M))

第三步 , 对各个神经元的激活函数 ( z ) 结果进行线性代换 第三步,对各个神经元的激活函数(z)结果进行线性代换 第三步,对各个神经元的激活函数(z)结果进行线性代换
z [ 2 ] = W [ 2 ] a [ 1 ] + b [ 2 ] ( 形状: ( 1 , M ) = ( 1 , n ) ∗ ( n , M ) + ( 1 , M ) ) z^{[2]} = W^{[2]}a^{[1]} + b^{[2]} (形状:(1,M) = (1,n) * (n,M) + (1,M)) z[2]=W[2]a[1]+b[2](形状:(1,M)=(1,n)(n,M)+(1,M))

第四步,对汇总的线性代换进行 σ ( z ) 第四步,对汇总的线性代换进行\sigma(z) 第四步,对汇总的线性代换进行σ(z)
a [ 2 ] = σ ( z [ 2 ] ) ( 形状: ( 1 , M ) ) a^{[2]} = \sigma(z^{[2]}) (形状:(1,M)) a[2]=σ(z[2])(形状:(1,M))

  • 第一步的结果(n,M),一个样本占一列
输入的样本M1M2M3MM
神经元
a1线性代换的结果
an
  • 第二步的结果(n,M),一个样本占一列
输入的样本M1M2M3MM
神经元
a1 σ ( 线性代换的结果 ) \sigma(线性代换的结果) σ(线性代换的结果)
an
  • 第三步的结果,一个样本占一格
输入的样本M1M2M3MM
各个神经元的 σ ( z ) \sigma(z) σ(z)结果 σ ( z ) \sigma(z) σ(z)线性代换的结果
  • 第四步的结果,一个样本占一格
输入的样本M1M2M3MM
σ ( z ) \sigma(z) σ(z)线性代换的结果 σ ( 第三步线性代换 ) \sigma(第三步线性代换) σ(第三步线性代换)线性代换的结果,最终的预测概率

激活函数的作用

就是非线性变换

为什么要有激活函数

线性变换1-神经元a1
线性变换1-神经元a2
线性变换1-神经元a3
线性变换1-神经元a4
线性变换2
输入特征x
激活函数(z)
sigmoid(z)激活函数

线性变换1 根据权重数据化到各个神经元,
线性变换2 将各个神经元非线性化后的结果线加上偏置后,拟合(加)成一条线,最终根据这条线 σ ( z ) \sigma(z) σ(z)进行预测
隐层中有n神经元,最终就是n条激活函数的线拟合
在这里插入图片描述

如果不加激活函数,那么神经元就仅仅做线性变换,以AlexNet为例,这个神经网络就会成为一个线性回归模型。而一个线性回归模型对于复杂非线性任务的处理能力是十分有限的。因此,我们需要添加非线性的激活函数,在神经网络的输入输出之间形成非线性映射,让网络能力更为强大。

仅线性变化得到的,拟合(加起来)效果不如激活函数得到的非线性线的拟合
在这里插入图片描述

反向传播

http://www.lryc.cn/news/581217.html

相关文章:

  • 前端-CSS-day1
  • 【openp2p】学习3:【专利分析】一种基于混合网络的自适应切换方法、装 置、设备及介质
  • WSL命令
  • 【爬虫】逆向爬虫初体验之爬取音乐
  • 大模型算法面试笔记——Bert
  • 计算机网络(网页显示过程,TCP三次握手,HTTP1.0,1.1,2.0,3.0,JWT cookie)
  • 一键将 SQL 转为 Java 实体类,全面支持 MySQL / PostgreSQL / Oracle!
  • 永磁同步电机无速度算法--基于锁频环前馈锁相环的滑模观测器
  • 使用SSH隧道连接远程主机
  • 五、Python新特性指定类型用法
  • 【赵渝强老师】Oracle RMAN的目录数据库
  • 数据库-元数据表
  • 事务的原子性
  • 自建双因素认证器 2FAuth 完美替代 Google Auth / Microsoft Auth
  • CSS 文字浮雕效果:巧用 text-shadow 实现 3D 立体文字
  • 虚拟机与容器技术详解:VM、LXC、LXD与Docker
  • HarmonyOS学习3---ArkUI
  • 《Redis》哨兵模式
  • ✨ OpenAudio S1:影视级文本转语音与语音克隆Mac整合包
  • 构建未来交互体验:AG-UI 如何赋能智能体与前端通信?
  • openai和chatgpt什么关系
  • hono框架绑定cloudflare的d1数据库操作步骤
  • 2025最新Telegram快读助手:一款智能Telegram链接摘要机器人
  • 【leetcode100】最长回文子串
  • 探索 .NET 桌面开发:WinForms、WPF、.NET MAUI 和 Avalonia 的全面对比(截至2025年7月)
  • MAX3485在MCU芯片AS32S601-485通信外设中的应用
  • Java 创建对象过程 JVM 内存分配并发安全笔记
  • 介绍Flutter
  • 2025最新软件测试面试八股文
  • 在SoC数据加解密验证中使用 Python 的 gmssl 库