当前位置: 首页 > news >正文

【机器学习】(算法优化二)提升算法之:AdaBoost与随机梯度

文章目录

  • 一、 AdaBoost:自适应提升算法
    • 1、AdaBoost数学原理详解
      • 1.1、 目标函数
      • 1.2、 样本权重更新的逻辑
      • 1.3、 模型权重计算的含义
      • 1.4、 AdaBoost的核心思想
    • 2、为什么AdaBoost如此有效?
  • 二、 随机梯度提升算法:梯度优化下更精细的优化
    • 1、随机梯度提升算法:残差驱动的梯度优化
      • 1.1、核心目标函数
      • 1.2、残差驱动的训练过程
        • 残差的本质:模型错误的量化
        • 步骤1:计算负梯度(残差)
        • 步骤2:模型对残差进行优化
        • 步骤3:更新预测
      • 1.3、为什么用残差而不是直接预测?
        • 避免重复学习
        • 逐步精细化
      • 1.4、随机性的双重作用
        • 样本随机性
        • 特征随机性
      • 1.5、随机梯度提升的核心思想
    • 2、为什么随机梯度提升如此强大?
  • 三、 提升算法与装袋算法的对比
    • 1、训练方式的差异
    • 2、数学原理的差异

提升算法是集成学习中的另一重要分支,与装袋算法不同,提升算法通过顺序训练和权重调整,实现了与装袋算法不同的集成策略。AdaBoost通过自适应权重调整关注难分类样本,随机梯度提升通过梯度优化实现精确的损失函数最小化。

一、 AdaBoost:自适应提升算法

AdaBoost的核心思想是:通过调整样本权重,让后续模型专注于之前模型预测错误的样本。这种方法确保了每个基模型都能为集成贡献独特的价值。

1、AdaBoost数学原理详解

1.1、 目标函数

F(x)=∑t=1Tαtht(x)F(x) = \sum_{t=1}^{T} \alpha_t h_t(x)F(x)=t=1Tαtht(x)

这个公式表示:最终的预测是所有基模型预测的加权和

具体解释

  • F(x)F(x)F(x) 是最终的集成预测
  • ht(x)h_t(x)ht(x) 是第 ttt 个基模型(比如决策树)的预测
  • αt\alpha_tαt 是第 ttt 个模型的权重(重要性)
  • TTT 是基模型的总数量

举个例子
假设有3个基模型,预测结果分别是:

  • 模型1:h1(x)=1h_1(x) = 1h1(x)=1,权重 α1=0.5\alpha_1 = 0.5α1=0.5
  • 模型2:h2(x)=−1h_2(x) = -1h2(x)=1,权重 α2=0.3\alpha_2 = 0.3α2=0.3
  • 模型3:h3(x)=1h_3(x) = 1h3(x)=1,权重 α3=0.2\alpha_3 = 0.2α3=0.2

那么最终预测为:
F(x)=0.5×1+0.3×(−1)+0.2×1=0.4F(x) = 0.5 \times 1 + 0.3 \times (-1) + 0.2 \times 1 = 0.4F(x)=0.5×1+0.3×(1)+0.2×1=0.4

 

1.2、 样本权重更新的逻辑

Dt+1(i)=Dt(i)exp⁡(−αtyiht(xi))ZtD_{t+1}(i) = \frac{D_t(i) \exp(-\alpha_t y_i h_t(x_i))}{Z_t}Dt+1(i)=ZtDt(i)exp(αtyiht(xi))

这个公式表示:根据当前模型的预测结果调整样本权重

具体解释

  • Dt(i)D_t(i)Dt(i) 是第 ttt 轮第 iii 个样本的权重
  • yiy_iyi 是第 iii 个样本的真实标签(1或-1)
  • ht(xi)h_t(x_i)ht(xi) 是第 ttt 个模型对第 iii 个样本的预测
  • αt\alpha_tαt 是第 ttt 个模型的权重
  • ZtZ_tZt 是归一化因子,确保权重和为1

关键理解

  • 如果 yiht(xi)=1y_i h_t(x_i) = 1yiht(xi)=1(预测正确),则 exp⁡(−αt)<1\exp(-\alpha_t) < 1exp(αt)<1,权重减小
  • 如果 yiht(xi)=−1y_i h_t(x_i) = -1yiht(xi)=1(预测错误),则 exp⁡(αt)>1\exp(\alpha_t) > 1exp(αt)>1,权重增大

举个例子
假设第1个模型权重 α1=0.5\alpha_1 = 0.5α1=0.5,对某个样本的预测:

  • 如果预测正确:yih1(xi)=1y_i h_1(x_i) = 1yih1(xi)=1,权重变为原来的 exp⁡(−0.5)≈0.61\exp(-0.5) \approx 0.61exp(0.5)0.61
  • 如果预测错误:yih1(xi)=−1y_i h_1(x_i) = -1yih1(xi)=1,权重变为原来的 exp⁡(0.5)≈1.65\exp(0.5) \approx 1.65exp(0.5)1.65

 

1.3、 模型权重计算的含义

αt=12ln⁡(1−ϵtϵt)\alpha_t = \frac{1}{2} \ln(\frac{1 - \epsilon_t}{\epsilon_t})αt=21ln(ϵt1ϵt)

这个公式表示:根据模型的错误率计算其权重

具体解释

  • ϵt\epsilon_tϵt 是第 ttt 个模型的加权错误率
  • αt\alpha_tαt 是第 ttt 个模型的权重

关键理解

  • 错误率越低,权重越大
  • 错误率越高,权重越小
  • 当错误率 = 0.5时,权重 = 0(没有贡献)

举个例子

  • 如果错误率 ϵt=0.1\epsilon_t = 0.1ϵt=0.1(很好),则 αt=12ln⁡(0.90.1)=1.1\alpha_t = \frac{1}{2} \ln(\frac{0.9}{0.1}) = 1.1αt=21ln(0.10.9)=1.1(高权重)
  • 如果错误率 ϵt=0.4\epsilon_t = 0.4ϵt=0.4(一般),则 αt=12ln⁡(0.60.4)=0.2\alpha_t = \frac{1}{2} \ln(\frac{0.6}{0.4}) = 0.2αt=21ln(0.40.6)=0.2(中等权重)
  • 如果错误率 ϵt=0.5\epsilon_t = 0.5ϵt=0.5(随机),则 αt=0\alpha_t = 0αt=0(无贡献)

 

1.4、 AdaBoost的核心思想

设计思路

  1. 样本权重更新:让后续模型更关注之前预测错误的样本
  2. 模型权重计算:让表现好的模型在最终预测中有更大话语权
  3. 顺序训练:每个新模型都试图纠正之前模型的错误

整体流程

  1. 训练第1个模型,计算错误率和权重
  2. 根据预测结果调整样本权重(错误样本权重增大)
  3. 训练第2个模型(更关注权重大的样本)
  4. 重复这个过程,直到训练完所有模型
  5. 最终预测是所有模型预测的加权和

这就是AdaBoost如何通过"让每个模型专注于之前模型预测错误的样本"来实现强大集成效果的原理。

 

2、为什么AdaBoost如此有效?

AdaBoost的有效性可以从多个角度理解。从统计学角度看,AdaBoost通过调整样本权重,让每个基模型专注不同的数据子集,从而实现了比简单平均更强的集成效果。

从机器学习角度看,AdaBoost的自适应特性使得它能够自动识别和关注难分类的样本,这种机制确保了模型在复杂数据上的强大表现。

 

二、 随机梯度提升算法:梯度优化下更精细的优化

随机梯度提升算法的核心思想是:通过梯度下降的方式顺序训练基模型,每个新模型都试图纠正之前模型的残差。这种方法实现了比AdaBoost更精细的损失函数优化。

1、随机梯度提升算法:残差驱动的梯度优化

1.1、核心目标函数

随机梯度提升算法的目标函数为:

F(x)=∑t=1Tft(x)F(x) = \sum_{t=1}^{T} f_t(x)F(x)=t=1Tft(x)

这个公式表示:最终的预测是所有基模型预测的简单累加

具体解释

  • F(x)F(x)F(x) 是最终的集成预测
  • ft(x)f_t(x)ft(x) 是第 ttt 个基模型(通常是决策树)的预测
  • TTT 是基模型的总数量

与AdaBoost的区别

  • AdaBoost:F(x)=∑t=1Tαtht(x)F(x) = \sum_{t=1}^{T} \alpha_t h_t(x)F(x)=t=1Tαtht(x)(加权和)
  • 随机梯度提升:F(x)=∑t=1Tft(x)F(x) = \sum_{t=1}^{T} f_t(x)F(x)=t=1Tft(x)(简单累加)

 

1.2、残差驱动的训练过程

残差的本质:模型错误的量化

残差就是当前模型预测与真实值之间的差距,它量化了模型预测错误的程度。

数学定义
残差=真实值−当前预测值残差 = 真实值 - 当前预测值残差=真实值当前预测值

步骤1:计算负梯度(残差)

rti=−∂L(yi,Ft−1(xi))∂Ft−1(xi)r_{ti} = -\frac{\partial L(y_i, F_{t-1}(x_i))}{\partial F_{t-1}(x_i)}rti=Ft1(xi)L(yi,Ft1(xi))

这个公式表示:计算当前模型预测与真实值之间的"残差"

具体解释

  • L(yi,Ft−1(xi))L(y_i, F_{t-1}(x_i))L(yi,Ft1(xi)) 是损失函数(如均方误差)
  • ∂L∂Ft−1(xi)\frac{\partial L}{\partial F_{t-1}(x_i)}Ft1(xi)L 是损失函数对预测的导数
  • 负号表示我们要沿着梯度的反方向优化

对于均方误差损失
L(y,F)=(y−F)2L(y, F) = (y - F)^2L(y,F)=(yF)2
∂L∂F=2(F−y)\frac{\partial L}{\partial F} = 2(F - y)FL=2(Fy)
−∂L∂F=2(y−F)=2×残差-\frac{\partial L}{\partial F} = 2(y - F) = 2 \times 残差FL=2(yF)=2×残差

所以负梯度就是残差的倍数

举个例子
假设真实值 yi=5y_i = 5yi=5,当前预测 Ft−1(xi)=3F_{t-1}(x_i) = 3Ft1(xi)=3

  • 残差:5−3=25 - 3 = 253=2
  • 负梯度:rti=2×2=4r_{ti} = 2 \times 2 = 4rti=2×2=4

这意味着我们需要增加预测值来减少损失。

 

步骤2:模型对残差进行优化

训练基模型 ft(x)f_t(x)ft(x) 来拟合残差 rtir_{ti}rti

核心思想每个新模型的任务就是预测之前模型的残差

这就像接力赛跑:

  • 第1个选手跑了80米(模型1的预测)
  • 还剩下20米(残差)
  • 第2个选手的任务就是跑这剩下的20米(预测残差)

具体例子
假设我们要预测房价,真实房价是100万:

第1轮训练

  • 真实值:y=100y = 100y=100
  • 模型1预测:F1(x)=80F_1(x) = 80F1(x)=80
  • 残差:r1=100−80=20r_1 = 100 - 80 = 20r1=10080=20

第2轮训练

  • 新目标:预测残差20万
  • 模型2预测:f2(x)=15f_2(x) = 15f2(x)=15
  • 更新预测:F2(x)=80+15=95F_2(x) = 80 + 15 = 95F2(x)=80+15=95
  • 新残差:r2=100−95=5r_2 = 100 - 95 = 5r2=10095=5

第3轮训练

  • 新目标:预测残差5万
  • 模型3预测:f3(x)=4f_3(x) = 4f3(x)=4
  • 更新预测:F3(x)=95+4=99F_3(x) = 95 + 4 = 99F3(x)=95+4=99
  • 新残差:r3=100−99=1r_3 = 100 - 99 = 1r3=10099=1
步骤3:更新预测

Ft(x)=Ft−1(x)+ηft(x)F_t(x) = F_{t-1}(x) + \eta f_t(x)Ft(x)=Ft1(x)+ηft(x)

这个公式表示:将新模型的预测加到之前的预测上

具体解释

  • Ft−1(x)F_{t-1}(x)Ft1(x) 是之前所有模型的累积预测
  • ft(x)f_t(x)ft(x) 是第 ttt 个新模型的预测
  • η\etaη 是学习率,控制新模型的贡献大小

学习率的作用

  • η=1\eta = 1η=1:新模型完全贡献其预测
  • η=0.1\eta = 0.1η=0.1:新模型只贡献10%的预测
  • 较小的学习率通常能获得更好的泛化性能

 

1.3、为什么用残差而不是直接预测?

避免重复学习

如果每个模型都直接预测原始目标,它们可能会学习到相似的模式,导致冗余。

用残差的优势

  • 模型1学习:房价的基本模式
  • 模型2学习:模型1遗漏的模式
  • 模型3学习:模型1和2都遗漏的模式

 

逐步精细化

残差通常比原始目标更容易预测,因为:

  • 残差的数值范围更小
  • 残差的模式更简单
  • 每个新模型只需要关注"遗漏"的部分

 

1.4、随机性的双重作用

样本随机性

每个基模型使用随机采样的数据子集进行训练。

具体实现

  • 从原始训练集中随机选择一部分样本
  • 通常选择80%的样本
  • 每个基模型使用不同的随机样本子集

作用

  • 增加基模型间的差异性
  • 防止过拟合、提高模型的泛化能力

 

特征随机性

每个基模型使用随机选择的特征子集。

具体实现

  • 从所有特征中随机选择一部分特征
  • 通常选择 p\sqrt{p}p 个特征(ppp 是特征总数)
  • 每个基模型使用不同的随机特征子集

作用

  • 进一步增加基模型间的差异性
  • 处理高维数据
  • 提高模型的鲁棒性

 

1.5、随机梯度提升的核心思想

为什么这样设计?

  1. 残差驱动:通过预测残差,每个新模型都专注于不同的错误模式
  2. 梯度优化:通过梯度信息指导模型训练,比AdaBoost的权重调整更精确
  3. 随机性:通过随机采样确保基模型间的差异性
  4. 学习率控制:通过较小的学习率防止过拟合

整体流程

  1. 初始化模型 F0(x)=0F_0(x) = 0F0(x)=0
  2. 对于每一轮 t=1,2,...,Tt = 1, 2, ..., Tt=1,2,...,T
    • 计算残差(负梯度)
    • 训练新模型拟合残差
    • 更新累积预测
  3. 最终预测是所有模型预测的累加

 

2、为什么随机梯度提升如此强大?

随机梯度提升的强大之处在于它结合了梯度优化的精确性和随机性的多样性。从优化角度看,随机梯度提升通过梯度下降实现了对损失函数的精确优化,这比AdaBoost的权重调整更加精细。

从集成角度看,随机梯度提升的随机性确保了基模型间的差异性,同时梯度优化确保了每个基模型都能为集成贡献最大价值。

更重要的是,随机梯度提升具有强大的泛化能力,通过控制学习率和基模型复杂度,可以有效防止过拟合。

 

三、 提升算法与装袋算法的对比

1、训练方式的差异

特性装袋算法提升算法
训练方式并行训练顺序训练
样本权重固定动态调整
基模型独立性
过拟合风险中等

2、数学原理的差异

装袋算法:通过平均独立训练的模型减少方差
Var(f^bag(x))=σ2B+B−1Bρσ2Var(\hat{f}_{bag}(x)) = \frac{\sigma^2}{B} + \frac{B-1}{B} \rho \sigma^2Var(f^bag(x))=Bσ2+BB1ρσ2

提升算法:通过顺序优化减少偏差
F(x)=∑t=1Tαtht(x)或F(x)=∑t=1Tft(x)F(x) = \sum_{t=1}^{T} \alpha_t h_t(x) \quad \text{或} \quad F(x) = \sum_{t=1}^{T} f_t(x)F(x)=t=1Tαtht(x)F(x)=t=1Tft(x)

 

http://www.lryc.cn/news/610361.html

相关文章:

  • C++多线程同步:深入理解互斥量与事件机制
  • 【node】token的生成与解析配置
  • 笔试——Day28
  • 我用一个 Postgres 实现一整套后端架构!
  • LeetCode 分类刷题:16. 最接近的三数之和
  • 【Unity】协程 Async
  • 体育数据创业:用 API + 比分网,低成本快速验证
  • Mirror学习笔记
  • Linux RAID 存储技术
  • GaussDB 数据库架构师(十二) 资源规划
  • 用户与组管理命令
  • 小实验:按键点灯(中断法)
  • 【笔记】ROS1|5 ARP攻击Turtlebot3汉堡Burger并解析移动报文【旧文转载】
  • traefik网关鉴权中间件转发multipart/form-data请求的multipart: NextPart: EOF问题
  • LLM大模型时代:生活服务领域的“生存革命“与新生态重构
  • 深度学习-卷积神经网络CNN-卷积层
  • 探索机器学习在医疗领域的应用与挑战
  • Flask 项目 Windows 服务器部署全流程
  • C++信息学奥赛一本通-第一部分-基础一-第一章
  • RTX5060显卡安装cuda版本PyTorch踩坑记录
  • 深度解析:CPU 与 GPU 上的张量运算,为何“快”与“慢”并非绝对?
  • chatgpt plus简单得,不需要求人,不需要野卡,不需要合租,不需要昂贵的价格
  • 从 0 到 1 开发图书管理系统:飞算 JavaAI 让技术落地更简单
  • Oracle MCP Server简单配置以及备份调用
  • Oracle EBS ERP接口开发 — 修复bug基本流程
  • Calcite自定义扩展SQL案例详细流程篇
  • Centos Docker 安装手册(可用)
  • el-table高度自适应vue页面指令
  • Mac中M系列芯片采用rbenv管理ruby版本
  • 板子指示灯状态设计