当前位置: 首页 > news >正文

梯度下降法以及 Python 实现

文章目录

1. 引言

梯度下降法,可以根据微分求出的斜率计算函数的最小值。
在人工智能中,经常被应用于学习算法。

2. 梯度法

梯度法 是根据函数的微分值(斜率)搜索最小值的算法。

梯度下降法也是一种梯度法,它通过向最陡方向下降来查找最小值。

给定一个多变量函数:
f ( x ) = f ( x 1 , x 2 , … , x i , … , x n ) . f(x) = f(x_1, x_2, \dots, x_i, \dots, x_n). f(x)=f(x1,x2,,xi,,xn).
首先为 x x x 赋予一个合适的初始值,然后通过下面的表达式进行更新:
x i t + 1 = x i t − η ∂ f ( x ) ∂ x i . x^{t+1}_i = x^{t}_i - \eta \frac{\partial f(x)}{\partial x_i}. xit+1=xitηxif(x).

其中, ∂ f ( x ) ∂ x i \displaystyle \frac{\partial f(x)}{\partial x_i} xif(x) 表示函数 f ( x ) f(x) f(x) 对变量 x i x_i xi 的偏导数。 x i t x^{t}_i xit 表示第 t t t 次迭代时变量 x i x_i xi 的取值, x i t + 1 x^{t+1}_i xit+1 表示第 t + 1 t+1 t+1 次迭代时变量 x i x_i xi 的取值。需要说明的是, t t t 是一个非负整数,也即是 t ∈ N t \in \mathbb{N} tN

η \eta η 是一个重要的参数,被称为学习系数或学习率的常数。 η \eta η 决定了 x i x_i xi 的更新速度。可以理解为,一个人 P 要从 A 点走到 B 点,, η \eta η 就是 P 走路时每一步的跨步大小,也称为步长。

根据该表达式, ∂ f ( x ) ∂ x i \displaystyle \frac{\partial f(x)}{\partial x_i} xif(x) 越大,也即是坡度越陡, x i x_i xi 值的变化就越大。

重复此操作,直到 f ( x ) f(x) f(x) 停止变化,那么此时 f ( x ) f(x) f(x) 的值就是 min ⁡ f ( x ) \min f(x) minf(x)

3. 例子

给定一个单变量函数 f ( x ) f(x) f(x)
f ( x ) = x 2 − 2 x . f(x)= x^2 - 2x. f(x)=x22x.
f ( x ) f(x) f(x) 的最小值。

:函数 f ( x ) f(x) f(x) 的导数记为 f ′ ( x ) f'(x) f(x)
f ′ ( x ) = d f ( x ) d x = 2 x − 2. f'(x)=\frac{\mathrm{d} f(x)}{\mathrm{d} x}=2x-2. f(x)=dxdf(x)=2x2.
f ′ ( x ) = 0 f'(x)=0 f(x)=0,则
f ′ ( x ) = 0 ⇒ 2 x − 2 = 0 x = 1. \begin{aligned} f'(x) =0 \Rightarrow 2x-2 & = 0 \\ x & = 1. \\ \end{aligned} f(x)=02x2x=0=1.
即当 x = 1 x=1 x=1 处, f ( x ) f(x) f(x) 的导数 f ′ ( x ) f'(x) f(x) 为 0。

x = 1 x=1 x=1 带入到 f ( x ) f(x) f(x) 中,得到:
f min ⁡ ( x ) = f ( x = 1 ) = 1 2 − 2 ∗ 1 = − 1. f_{\min}(x)=f(x=1)=1^2-2*1=-1. fmin(x)=f(x=1)=1221=1.

f ( x ) f(x) f(x) 的最小值在 x = 1 x=1 x=1 处取得,最小值为 -1。


下面通过模拟梯度下降法来求解。

假设 x x x 的初始值为 2,即 x 0 = 2 x^0=2 x0=2,令学习率 η = 0.1 \eta=0.1 η=0.1

次数 t t t变量 x t x^t xt导数 f ′ ( x t ) = 2 x t − 2 f'(x^t)=2x^t-2 f(xt)=2xt2函数 f ( x t ) = ( x t ) 2 − 2 x t f(x^t)=(x^t)^2-2x^t f(xt)=(xt)22xt更新 x t + 1 x^{t+1} xt+1
0 x 0 = 2 x^0=2 x0=2 f ′ ( x 0 ) = 2 ∗ 2 − 2 = 2 f'(x^0)=2*2-2=2 f(x0)=222=2 f ( x 0 ) = 2 2 − 2 ∗ 2 = 0 f(x^0)=2^2-2*2=0 f(x0)=2222=0 x 1 = 2 − 0.1 ∗ 2 = 1.8 x^1=2-0.1*2=1.8 x1=20.12=1.8
1 x 1 = 1.8 x^1=1.8 x1=1.8 f ′ ( x 1 ) = 2 ∗ 1.8 − 2 = 1.6 f'(x^1)=2*1.8-2=1.6 f(x1)=21.82=1.6 f ( x 1 ) = 1. 6 2 − 2 ∗ 1.6 = − 0.64 f(x^1)=1.6^2-2*1.6=-0.64 f(x1)=1.6221.6=0.64 x 2 = 1.8 − 0.1 ∗ 1.6 = 1.64 x^2=1.8-0.1*1.6=1.64 x2=1.80.11.6=1.64
2 x 2 = 1.64 x^2=1.64 x2=1.64 f ′ ( x 2 ) = 2 ∗ 1.64 − 2 = 1.28 f'(x^2)=2*1.64-2=1.28 f(x2)=21.642=1.28 f ( x 2 ) = 1.6 4 2 − 2 ∗ 1.64 = − 0.5904 f(x^2)=1.64^2-2*1.64=-0.5904 f(x2)=1.64221.64=0.5904 x 3 = 1.64 − 0.1 ∗ 1.28 = 1.512 x^3=1.64-0.1*1.28=1.512 x3=1.640.11.28=1.512
3 x 3 = 1.512 x^3=1.512 x3=1.512 f ′ ( x 3 ) = 2 ∗ 1.512 − 2 = 1.024 f'(x^3)=2*1.512-2=1.024 f(x3)=21.5122=1.024 f ( x 3 ) = 1.51 2 2 − 2 ∗ 1.512 = − 0.7379 f(x^3)=1.512^2-2*1.512=-0.7379 f(x3)=1.512221.512=0.7379 x 4 = 1.512 − 0.1 ∗ 1.024 = 1.4096 x^4=1.512-0.1*1.024=1.4096 x4=1.5120.11.024=1.4096
4 x 4 = 1.4096 x^4=1.4096 x4=1.4096 … \dots … \dots … \dots

根据梯度下降法的公式进行计算,可以得到上面的表格。可以观察到,导数 f ′ ( x ) f'(x) f(x) 的值越来越小。继续计算上面的表, x x x 的值会越来越小,逐渐逼近 1。当 f ′ ( x ) = 0 f'(x)=0 f(x)=0 时, x = 1 x=1 x=1,此时 f ( x ) = − 1 f(x)=-1 f(x)=1

4. 代码实现

我们利用 Python 代码可以模拟上面的梯度下降过程。

定义一个函数,表示 f ( x ) f(x) f(x)

def my_func(x):"""$y = x^2 - 2x$:param x: 变量:return: 函数值"""return x**2 - 2*x

变量 x 对应于 x x x,my_func() 的结果(返回值)对应于 f ( x ) f(x) f(x)

再定义一个函数,表示 f ′ ( x ) f'(x) f(x)

def grad_func(x):"""函数 $y = x^2 - 2x$ 的导数:param x: 变量:return: 导数值"""return 2*x - 2

变量 x 对应于 x x x,grad_func() 的结果(返回值)对应于 f ′ ( x ) f'(x) f(x)

给定一个学习率 η \eta η,给定一个 x x x 的初始值

eta = 0.1
x = 4.0

那么就可以开始模拟梯度下降法求解最小值。

import numpy as np
import matplotlib.pyplot as pltdef my_func(x):"""$y = x^2 - 2x$:param x: 变量:return: 函数值"""return x**2 - 2*xdef grad_func(x):"""函数 $y = x^2 - 2x$ 的导数:param x: 变量:return: 导数值"""return 2*x - 2eta = 0.1
x = 4.0
record_x = []
record_y = []for i in range(20):y = my_func(x)record_x.append(x)record_y.append(y)x -= eta * grad_func(x)print(np.round(record_x, 4))
print(np.round(record_y, 4))x_f = np.linspace(-2, 4)
y_f = my_func(x_f)plt.plot(x_f, y_f, linestyle='--', color='red')
plt.scatter(record_x, record_y)plt.xlabel('x', size=14)
plt.ylabel('y', size=14)
plt.grid()
plt.show()

x x x 的变化过程为:

[4. 3.4 2.92 2.536 2.2288 1.983 1.7864 1.6291 1.5033 1.4027 1.3221 1.2577 1.2062 1.1649 1.1319 1.1056 1.0844 1.0676 1.054 1.0432]

f ( x ) f(x) f(x) 的变化过程为:

[ 8. 4.76 2.6864 1.3593 0.5099 -0.0336 -0.3815 -0.6042 -0.7467 -0.8379 -0.8962 -0.9336 -0.9575 -0.9728 -0.9826 -0.9889 -0.9929 -0.9954 -0.9971 -0.9981]

我们使用了 matplotlib 可视化函数 f ( x ) f(x) f(x) 的图像,以及梯度下降法求解的过程。

在这里插入图片描述

红色虚线是函数 f ( x ) f(x) f(x) 的图像。

蓝色点表示梯度下降法求解过程中 f ( x ) f(x) f(x) 的值。

5. 讨论 — 学习率 η \eta η

学习率 η \eta η)是一个非常重要的参数。有多重要呢?请接着看……

在上面的例子中,我们设置学习率为 0.1,即 η = 0.1 \eta = 0.1 η=0.1。同样的以上面的例子为例,我们修改学习率。

5.1 当 η \eta η 设置过大

设置 η = 1 \eta = 1 η=1 x x x 的初始值保持一致,仍取值 4.0。

eta = 1
x = 4.0

那么,再一次利用梯度下降法求解,
x x x 的变化过程为:

[ 4. -2. 4. -2. 4. -2. 4. -2. 4. -2. 4. -2. 4. -2. 4. -2. 4. -2. 4. -2.]

f ( x ) f(x) f(x) 的变化过程为:

[8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8. 8.]

可视化结果为:

在这里插入图片描述

上面的输出结果和图像都可以看出, x x x f ( x ) f(x) f(x) 的结果在循环,始终无法得到正确结果,进入了死循环。

5.2 当 η \eta η 设置过小

设置 η = 0.01 \eta = 0.01 η=0.01 x x x 的初始值保持一致,仍取值 4.0。

eta = 0.01
x = 4.0

那么,再一次利用梯度下降法求解,
x x x 的变化过程为:

[4. 3.94 3.8812 3.8236 3.7671 3.7118 3.6575 3.6044 3.5523 3.5012 3.4512 3.4022 3.3542 3.3071 3.2609 3.2157 3.1714 3.128 3.0854 3.0437]

f ( x ) f(x) f(x) 的变化过程为:

[8. 7.6436 7.3013 6.9726 6.6569 6.3537 6.0625 5.7828 5.5142 5.2562 5.0085 4.7705 4.542 4.3226 4.1118 3.9094 3.7149 3.5282 3.3489 3.1767]

可视化结果为:

在这里插入图片描述

上面的输出结果和图像都可以看出,梯度下降法在正确工作。但是求解过程很缓慢,离最小值还有一段距离。此时需要增加循环轮次,消耗更多的资源。

总结:需要设置合理的学习率 η \eta η,过大或过小都不好。

参考

-《用Python编程和实践!数学教科书》

http://www.lryc.cn/news/498821.html

相关文章:

  • Postman cURL命令导入导出
  • Java 在Json对象字符串中查找和提取特定的数据
  • synchronized的特性
  • 领域泛化与领域自适应
  • 使用aspx,完成一个转发http的post请求功能的api接口,url中增加目标地址参数,传递自定义header参数
  • 实际车辆行驶轨迹与预设路线偏离检测的Java实现
  • 从excel数据导入到sqlsever遇到的问题
  • Linux操作系统——Linux的磁盘管理系统、文件inode及软硬链接
  • 算法刷题Day11: BM33 二叉树的镜像
  • WPF+MVVM案例实战与特效(三十五)- 掌握 Windows 屏幕键盘控制的艺术(TouchKeyBoardHelper 类)
  • Python+OpenCV系列:绘制中文的方法
  • 精品推荐 | StarLighter 1×dsDNA HS Assay Kit
  • 挑战用React封装100个组件【010】
  • burp suite 5
  • 锐捷Web认证
  • 【开源免费】基于Vue和SpringBoot的服装生产管理系统(附论文)
  • 每日速记10道MySQL面试题16
  • 云计算考试题
  • 无人机理论考试合格证书获取
  • AcWing 3496. 特殊年份
  • YOLOv8模型改进 第二十讲 添加三重注意力机制Triplet Attention 提升小目标/遮挡目标
  • Linux絮絮叨(三) Ubuntu桌面版添加中文拼音输入法
  • Ungoogled Chromium127编译指南 Windows篇 - 安装Visual Studio 2022(六)
  • Kubernetes(K8s)
  • 证明切平面过定点的曲面是锥面
  • python中数组怎么转换为字符串
  • Linux 查看运行了哪些服务
  • WPS EXCEL 使用 WPS宏编辑器 写32位十六进制数据转换为浮点小数的公式。
  • SpringMVC ——(1)
  • 嵌入式中防linux的通用MCU系统