当前位置: 首页 > article >正文

【动手学深度学习】2.4. 微积分


目录

    • 2.4. 微积分
      • 1)导数和微分
      • 2)偏导数
      • 3)梯度
      • 4)链式法则
      • 5)小结


.

2.4. 微积分

微积分的起源

  • 古希腊人通过逼近法(多边形边数↑ → 面积逼近圆)发展出积分的思想。

  • 微分,在 2000 多年后被发明,主要用于解决优化问题。

深度学习中的应用

  • 优化(optimization):用模型拟合观测数据的过程;

  • 泛化(generalization):数学原理和实践者的智慧,能够指导我们生成出有效性超出用于训练的数据集本身的模型。

微积分是深度学习中不可或缺的一部分,主要用于优化问题。为了帮助更好理解深度学习中的优化问题,将介绍深度学习中常用的微分知识。

.

1)导数和微分

导数是微积分基础概念之一。可解释为函数相对其变量的瞬时变化率。假设我们有个函数 f(x) ,其导数定义为:
f ′ ( x ) = lim ⁡ h → 0 f ( x + h ) − f ( x ) h f'(x) = \lim_{h \to 0} \frac{f(x+h) - f(x)}{h} f(x)=h0limhf(x+h)f(x)

导数的计算在深度学习中非常重要,因为它是几乎所有优化算法的关键步骤。

(1)代码示例

以下是一个计算函数 f ( x ) = 3 x 2 − 4 x f(x) = 3x^2 - 4x f(x)=3x24x在 x = 1 处导数的代码示例:

import numpy as npdef f(x):return 3 * x ** 2 - 4 * xdef numerical_lim(f, x, h):return (f(x + h) - f(x)) / hh = 0.1
for i in range(5):print(f'h={h:.5f}, numerical limit={numerical_lim(f, 1, h):.5f}')h *= 0.1

输出结果:

h=0.10000, numerical limit=2.30000
h=0.01000, numerical limit=2.03000
h=0.00100, numerical limit=2.00300
h=0.00010, numerical limit=2.00030
h=0.00001, numerical limit=2.00003

从结果可以看出,当 h 趋近于 0 时,(f(x + h) - f(x)) / h 的数值结果接近 2 。

(2)导数和微分符号

对于导数有:

f ′ ( x ) = y ′ = d y d x = d f d x = d d x f ( x ) = D f ( x ) = D x f ( x ) f'(x) = y' = \frac{dy}{dx} = \frac{df}{dx} = \frac{d}{dx} f(x) = Df(x) = D_x f(x) f(x)=y=dxdy=dxdf=dxdf(x)=Df(x)=Dxf(x)

其中, d d x 和 D \frac{d}{dx}和D dxdD微分运算符,表示微分操作。 对常见函数求微分:

  • D C = 0 DC = 0 DC=0 (C是一个常数)

  • D x n = n x n − 1 Dx^n = nx^{n-1} Dxn=nxn1幂律(power rule),n是任意实数)

  • D e x = e x De^x = e^x Dex=ex

  • D ln ⁡ ( x ) = 1 / x D\ln(x) = 1/x Dln(x)=1/x

微分法则:

若 f 和 g 都是可微的函数,且 C 是常数,那么以下法则适用:

  • 常数相乘法则: d d x [ C f ( x ) ] = C d d x f ( x ) \frac{d}{dx} [Cf(x)] = C \frac{d}{dx} f(x) dxd[Cf(x)]=Cdxdf(x)

  • 加法法则: d d x [ f ( x ) + g ( x ) ] = d d x f ( x ) + d d x g ( x ) \frac{d}{dx} [f(x) + g(x)] = \frac{d}{dx} f(x) + \frac{d}{dx} g(x) dxd[f(x)+g(x)]=dxdf(x)+dxdg(x)

  • 乘法法则: d d x [ f ( x ) g ( x ) ] = f ( x ) d d x [ g ( x ) ] + g ( x ) d d x [ f ( x ) ] \frac{d}{dx} [f(x)g(x)] = f(x) \frac{d}{dx} [g(x)] + g(x) \frac{d}{dx} [f(x)] dxd[f(x)g(x)]=f(x)dxd[g(x)]+g(x)dxd[f(x)]

  • 除法法则: d d x [ f ( x ) g ( x ) ] = g ( x ) d d x [ f ( x ) ] − f ( x ) d d x [ g ( x ) ] [ g ( x ) ] 2 \frac{d}{dx} \left[\frac{f(x)}{g(x)}\right] = \frac{g(x) \frac{d}{dx} [f(x)] - f(x) \frac{d}{dx} [g(x)]}{[g(x)]^2} dxd[g(x)f(x)]=[g(x)]2g(x)dxd[f(x)]f(x)dxd[g(x)]

.

2)偏导数

目前为止,我们只讨论了仅含一个变量的函数的微分。在深度学习中,函数通常依赖于许多变量。因此,我们需要将微分的思想推广到多元函数(multivariate function)上。

y = f ( x 1 ​ , x 2 ​ , … , x n ​ ) y=f(x_1​,x_2​,…,x_n​) y=f(x1,x2,,xn) 是一个具有 n 个变量的函数。y 关于第 i 个参数 x i x_i xi​ 的偏导数(partial derivative)为:

∂ y ∂ x i = lim ⁡ h → 0 f ( x 1 , … , x i − 1 , x i + h , x i + 1 , … , x n ) − f ( x 1 , … , x i , … , x n ) h \frac{\partial y}{\partial x_i} = \lim_{h \to 0} \frac{f(x_1, \ldots, x_{i-1}, x_i + h, x_{i+1}, \ldots, x_n) - f(x_1, \ldots, x_i, \ldots, x_n)}{h} xiy=h0limhf(x1,,xi1,xi+h,xi+1,,xn)f(x1,,xi,,xn)

为了计算​ ∂ y ∂ x i \frac{\partial y}{\partial x_i} xiy,我们可以简单地将 x 1 ​ , … , x i − 1 ​ , x i + 1 ​ , … , x n x_1​,…,x_{i−1}​,x_{i+1}​,…,x_n x1,,xi1,xi+1,,xn​ 看作常数,并计算 y 关于 x i x_i xi​ 的导数。对于偏导数的表示,以下是等价的:

∂ y ∂ x i = ∂ f ∂ x i = f x i = f i = D i f = D x i f \frac{\partial y}{\partial x_i} = \frac{\partial f}{\partial x_i} = f_{x_i} = f_i = D_i f = D_{x_i} f xiy=xif=fxi=fi=Dif=Dxif

.

3)梯度

我们可以连结一个多元函数对其所有变量的偏导数,以得到该函数的梯度(gradient)向量。具体而言,设函数 f : R n → R f : \mathbb{R}^{n} \to \mathbb{R} f:RnR 的输入是一个列向量 x = [ x 1 , x 2 , … , x n ] ⊤ x = [x_1, x_2, \ldots, x_n]^\top x=[x1,x2,,xn],并且输出是一个标量。函数 f ( x ) f(x) f(x) 相对于 x x x 的梯度是一个包含 n n n 个偏导数的向量:

∇ x f ( x ) = [ ∂ f ( x ) ∂ x 1 , ∂ f ( x ) ∂ x 2 , ⋯ , ∂ f ( x ) ∂ x n ] ⊤ \nabla_{\mathbf{x}} f(\mathbf{x}) = \left[ \frac{\partial f(\mathbf{x})}{\partial x_1}, \frac{\partial f(\mathbf{x})}{\partial x_2}, \cdots, \frac{\partial f(\mathbf{x})}{\partial x_n} \right]^\top xf(x)=[x1f(x),x2f(x),,xnf(x)]

其中 ∇ x f ( x ) \nabla_x f(x) xf(x) 通常在没有歧义时简写为 ∇ f ( x ) \nabla f(x) f(x)

假设 x x x n n n 维向量,在微分多元函数中经常使用以下规则:

  • 对于所有 A ∈ R m × n A \in \mathbb{R}^{m \times n} ARm×n,有 ∇ x ( A x ) = A ⊤ \nabla_x (Ax) = A^\top x(Ax)=A

  • 对于所有 A ∈ R n × m A \in \mathbb{R}^{n \times m} ARn×m,有 ∇ x ( x ⊤ A ) = A \nabla_x (x^\top A) = A x(xA)=A

  • 对于所有 A ∈ R n × n A \in \mathbb{R}^{n \times n} ARn×n,有 ∇ x ( x ⊤ A x ) = ( A + A ⊤ ) x \nabla_x (x^\top A x) = (A + A^\top)x x(xAx)=(A+A)x

  • ∇ x ∥ x ∥ 2 = ∇ x ( x ⊤ x ) = 2 x \nabla_x \|x\|^2 = \nabla_x (x^\top x) = 2x xx2=x(xx)=2x

同样,对于任何矩阵 X X X,有 ∇ X ∥ X ∥ F 2 = 2 X \nabla_X \|X\|_F^2 = 2X XXF2=2X。梯度在深度学习优化算法的设计中具有重要作用。

.

4)链式法则

然而,上面方法可能很难找到梯度。这是因为在深度学习中,多元函数通常是复合(composite)的,所以难以应用上述任何规则来微分这些函数。幸运的是,链式法则可以被用来微分复合函数

让我们先考虑单变量函数。假设函数 y = f ( u ) y = f(u) y=f(u) u = g ( x ) u = g(x) u=g(x) 都是可微的,根据链式法则:

d y d x = d y d u ⋅ d u d x \frac{dy}{dx} = \frac{dy}{du} \cdot \frac{du}{dx} \quad dxdy=dudydxdu

现在考虑一个更一般的场景,即函数具有任意数量的变量的情况。假设可微分函数 y y y 有变量 u 1 , u 2 , … , u m u_1, u_2, \ldots, u_m u1,u2,,um,其中每个可微分函数 u i u_i ui 都有变量 x 1 , x 2 , … , x n x_1, x_2, \ldots, x_n x1,x2,,xn。注意, y y y x 1 , x 2 , … , x n x_1, x_2, \ldots, x_n x1,x2,,xn 的函数。对于任意 i = 1 , 2 , … , n i = 1, 2, \ldots, n i=1,2,,n,链式法则给出:

∂ y ∂ x i = ∂ y ∂ u 1 ⋅ ∂ u 1 ∂ x i + ∂ y ∂ u 2 ⋅ ∂ u 2 ∂ x i + ⋯ + ∂ y ∂ u m ⋅ ∂ u m ∂ x i \frac{\partial y}{\partial x_i} = \frac{\partial y}{\partial u_1} \cdot \frac{\partial u_1}{\partial x_i} + \frac{\partial y}{\partial u_2} \cdot \frac{\partial u_2}{\partial x_i} + \cdots + \frac{\partial y}{\partial u_m} \cdot \frac{\partial u_m}{\partial x_i} \quad xiy=u1yxiu1+u2yxiu2++umyxium

.

5)小结

  • 微分和积分是微积分的两个分支,前者可以应用于深度学习中的优化问题。

  • 导数可以被解释为函数相对于其变量的瞬时变化率,它也是函数曲线的切线的斜率。

  • 梯度是一个向量,其分量是多变量函数相对于其所有变量的偏导数。

  • 链式法则可以用来微分复合函数。

.


声明:资源可能存在第三方来源,若有侵权请联系删除!

http://www.lryc.cn/news/2393284.html

相关文章:

  • 流程自动化引擎:让业务自己奔跑
  • AI炼丹日志-23 - MCP 自动操作 自动进行联网检索 扩展MCP能力
  • 用 Python 模拟雪花飘落效果
  • 基于定制开发开源AI智能名片S2B2C商城小程序的大零售渗透策略研究
  • 重拾Scrapy框架
  • Day 40
  • XPlifeapp:高效打印,便捷生活
  • 等保测评-Mysql数据库测评篇
  • CSS篇-2
  • 02.K8S核心概念
  • 一套qt c++的串口通信
  • 【高频面试题】数组中的第K个最大元素(堆、快排进阶)
  • Java互联网大厂面试:从Spring Boot到Kafka的技术深度探索
  • 基于Python的单斜式ADC建模与仿真分析
  • 笔记本电脑右下角wifi不显示,连不上网怎么办?
  • 一篇文章玩转CAP原理
  • Vue-收集表单信息
  • 私服 nexus 之间迁移 npm 仓库
  • 微服务及容器化设计--可扩展的架构设计
  • vscode开发stm32,main.c文件中出现很多报错影响开发解决日志
  • 嵌入式鸿蒙系统中水平和垂直以及图片调用方法
  • 【海康USB相机被HALCON助手连接过后,MVS显示无法连接故障。】
  • 面试大厂Java:从Spring Boot到微服务架构
  • 2025年电气工程与轨道交通国际会议:绿色能源与智能交通的创新之路
  • macOS 安装 Grafana + Prometheus + Node Exporter
  • WPF log4net用法
  • 数字孪生数据监控如何提升汽车零部件工厂产品质量
  • web自动化-Selenium、Playwright、Robot Framework等自动化框架使用场景优劣对比
  • 使用 Akamai 分布式云与 CDN 保障视频供稿传输安全
  • vue发版html 生成打包到docker镜像进行发版