当前位置: 首页 > news >正文

【第三章:神经网络原理详解与Pytorch入门】01.神经网络算法理论详解与实践-(3)神经网络中的前向传播、反向传播的原理与实现

第三章: 神经网络原理详解与Pytorch入门

第一部分:神经网络算法理论详解与实践

第三节:神经网络中的前向传播、反向传播的原理与实现

内容:详解如何梯度下降法更新整个网络权重

学习目标:

  • 掌握神经网络中前向传播与反向传播的数学原理

  • 理解梯度下降如何更新权重

  • 明确各层之间的导数传播过程,奠定自动微分和框架实现基础


一、前向传播(Forward Propagation)

前向传播是神经网络的“推理”过程,计算从输入到输出的映射:

以一个两层神经网络为例:

z^{(1)} = W^{(1)}x + b^{(1)}
a^{(1)} = \sigma(z^{(1)})
z^{(2)} = W^{(2)}a^{(1)} + b^{(2)}
\hat{y} = f(z^{(2)})

  • x:输入特征

  • W^{(i)}:权重矩阵

  • σ:激活函数(ReLU、Sigmoid等)

  • \hat{y}:输出预测值


二、损失函数(Loss Function)

【深度学习】关键技术-损失函数(Loss Function)_slideloss[16]损失函数是由googleai在2022年提出的一种用于深度学习目标检测中的-CSDN博客

神经网络使用损失函数衡量预测值与真实值之间的差异。常见损失:

任务类型损失函数公式
回归均方误差 MSE\frac{1}{n} \sum (\hat{y}_i - y_i)^2
分类交叉熵 CrossEntropy-\sum y_i \log(\hat{y}_i)

三、反向传播原理(Backpropagation)

【漫话机器学习系列】008.反向传播算法(Backpropagation Algorithm)-CSDN博客

1. 链式法则(Chain Rule)

【漫话机器学习系列】022.微积分中的链式求导法则(chain rule of Calculus)-CSDN博客

反向传播依赖链式法则来逐层计算梯度:

\frac{\partial L}{\partial W^{(1)}} = \frac{\partial L}{\partial \hat{y}} \cdot \frac{\partial \hat{y}}{\partial z^{(2)}} \cdot \frac{\partial z^{(2)}}{\partial a^{(1)}} \cdot \frac{\partial a^{(1)}}{\partial z^{(1)}} \cdot \frac{\partial z^{(1)}}{\partial W^{(1)}}

整个过程:

  • 从损失函数 L 开始

  • 一步步传回去,计算各层的梯度

  • 将误差分配到每一层的权重和偏置

2. 每层误差 δ 的表达

定义 \delta^{(l)} = \frac{\partial L}{\partial z^{(l)}},即该层输出的“误差信号”

\delta^{(l)} = ((W^{(l+1)})^T \delta^{(l+1)}) \circ \sigma'(z^{(l)})

其中:

  • ∘ 表示按元素相乘(Hadamard积)

  • σ′(z) 是激活函数的导数


四、梯度下降更新参数

【学习笔记】深入浅出梯度下降算法_gradient descent-CSDN博客

【漫话机器学习系列】063.梯度下降(Gradient Descent)_机器学习 梯队下降-CSDN博客

1. 更新公式(以学习率 η)

W^{(l)} := W^{(l)} - \eta \cdot \frac{\partial L}{\partial W^{(l)}}
b^{(l)} := b^{(l)} - \eta \cdot \frac{\partial L}{\partial b^{(l)}}

2. 训练迭代流程

  1. 初始化参数

  2. 前向传播计算 \hat{y}

  3. 计算损失函数

  4. 反向传播计算梯度

  5. 更新参数

  6. 重复多个 epoch,直到收敛


五、PyTorch 实现前后向传播简例

【人工智能】Python常用库-PyTorch常用方法教程-CSDN博客

import torch
import torch.nn as nn
import torch.optim as optim# 模拟数据
x = torch.randn(10, 5)
y = torch.randint(0, 2, (10,))# 简单神经网络
model = nn.Sequential(nn.Linear(5, 16),nn.ReLU(),nn.Linear(16, 2)
)loss_fn = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.01)# 一次前后传播
y_pred = model(x)
loss = loss_fn(y_pred, y)
loss.backward()  # 自动反向传播
optimizer.step() # 更新参数
optimizer.zero_grad() # 梯度清零

小结表格

流程阶段主要操作
前向传播将输入逐层计算,输出预测值 y^\hat{y}
计算损失使用 Loss 函数衡量 y^\hat{y} 与真实值的误差
反向传播应用链式法则从输出到输入逐层计算梯度
梯度更新使用梯度下降更新权重,控制学习速率

http://www.lryc.cn/news/579523.html

相关文章:

  • JavaScript的初步学习
  • 2021/7 N2 jlpt 词汇
  • npm ERR! code ERESOLVE npm ERR! ERESOLVE unable to resolve dependency tree
  • Apache POI 详解 - Java 操作 Excel/Word/PPT
  • docker-compose一键部署全栈项目。springboot后端,react前端
  • 如何将信息从 iPhone 同步到Mac(完整步骤和示意图)
  • mac 电脑安装Homebrew来安装npm与node成功后,安装nvm的流程
  • MySQL 8.0 OCP 1Z0-908 题目解析(19)
  • 标准测试测试数据STDF学习笔记
  • MediaCrawler:强大的自媒体平台爬虫工具
  • Spring Boot 多 ActiveMQ 通道配置与多连接消息发送实战(含完整示例与踩坑记录)
  • Ubuntu 24.04 LTS 服务器配置:安装 JDK、Nginx、Redis。
  • 一体机电脑为何热度持续上升?消费者更看重哪些功能?
  • 关于系统无法找到 arm-linux-gcc 命令,这表明你的环境中尚未安装 ARM 交叉编译工具链。以下是详细的解决方案:(DIY机器人工房)
  • 牛客:HJ16 购物单【01背包】【华为机考】
  • 封装 获取paramsByKey 方法
  • 毕业设计(启智模块化机器人的组装与K5的使用
  • 使用Visual Studio 2022创建CUDA编程项目
  • 车载交换机动态MAC学习和静态MAC绑定如何获取MAC地址表
  • jenkins角色权限
  • 这才叫窗口查询!TDEngine官方文档没讲透的实战玩法
  • 微信小程序41~50
  • 佰力博科技与您探讨压电材料的原理与压电效应的应用
  • C++(std::sort)
  • 【轨物洞见】光伏机器人与组件、支架智能化协同白皮书
  • 如何避免服务器出现故障情况?
  • SPLADE 在稀疏向量搜索中的原理与应用详解
  • 【NLP入门系列四】评论文本分类入门案例
  • ubuntu 6.8.0 安装xenomai3.3
  • lspci查看PCI设备详细信息