当前位置: 首页 > article >正文

机器学习与深度学习06-决策树02

目录

    • 前文回顾
    • 5.决策树中的熵和信息增益
    • 6.什么是基尼不纯度
    • 7.决策树与回归问题
    • 8.随机森林是什么

前文回顾

上一篇文章地址:链接

5.决策树中的熵和信息增益

熵和信息增益是在决策树中用于特征选择的重要概念,它们帮助选择最佳特征进行划分。

  1. 熵(Entropy):熵是信息论中用来度量不确定性或混乱程度的概念。在决策树中,熵被用来度量一个节点的不纯度,即该节点包含多少不同类别的样本,熵的计算公式为,对于节点t, p i p_i pi表示类别i在节点t中的样本比例

E n t r o p y ( t ) = − ∑ i = 1 c p i log ⁡ 2 ( p i ) Entropy(t) = - \sum_{i = 1}^{c} p_i \log_2(p_i) Entropy(t)=i=1cpilog2(pi)
其中,c表示类别的数量。熵的值在0和1之间,越接近0表示节点越纯净,越接近1表示节点的不纯度越高。

  1. 信息增益(Information Gain):信息增益用于选择最佳特征来划分数据集。它衡量了通过选择某个特征进行划分后,父节点的熵减少了多少,即子节点的不纯度相对于父节点而言减少了多少, 信息增益的计算公式为
    I n f o r m a t i o n G a i n ( D , A ) = E n t r o p y ( D ) − ∑ v ∈ V a l u e s ( A ) ∣ D v ∣ ∣ D ∣ E n t r o p y ( D v ) Information \ Gain(D, A) = Entropy(D) - \sum_{v \in Values(A)} \frac{|D_v|}{|D|} Entropy(D_v) Information Gain(D,A)=Entropy(D)vValues(A)DDvEntropy(Dv)
    其中,D是父节点的数据集,A是要划分的特征, V a l u e s ( A ) Values(A) Values(A)是特征A的取值集合, D v D_v Dv是特征A取值为v时的子节点数据集,信息增益的目标是选择使得信息增益最大的特征来进行划分,因为最大的信息增益意味着划分后的子节点更纯净,不确定性更低。因此,信息增益可以帮助决策树选择最能有效地划分数据的特征,从而构建更加有用的决策树模型
    需要注意的是,信息增益在选择特征时有一定的偏向性,它倾向于选择取值较多的特征,因此在某些情况下可能不适用。为了解决这个问题,基尼不纯度(Gini Impurity)是另一种可选的划分准则,它在某些情况下更适用于特征选择。在实际应用中,可以根据具体问题和数据集选择适当的划分准则

6.什么是基尼不纯度

基尼不纯度是一种用于决策树中的划分准则,它用来度量一个节点的不纯度或混乱程度,基尼不纯度越低,表示节点的纯度越高,即该节点包含的样本更倾向于属于同一类别。与信息增益不同,基尼不纯度不依赖于对数,计算相对较为简单。基尼不纯度的计算公式为,对于节点t, p i p_i pi表示类别i在节点t中的样本比例
G i n i ( t ) = 1 − ∑ i = 1 c ( p i ) 2 Gini(t) = 1 - \sum_{i = 1}^{c} (p_i)^2 Gini(t)=1i=1c(pi)2
其中,c表示类别的数量。基尼不纯度的值在0和1之间,越接近0表示节点越纯净,越接近1表示节点的不纯度越高,与信息增益相比,基尼不纯度有一些不同之处:

  1. 计算方式:信息增益使用对数计算,而基尼不纯度使用平方计算。这意味着基尼不纯度对误分类的惩罚相对较小,因此更偏向于选择具有最大基尼不纯度下降的特征
  2. 取值范围:信息增益的取值范围在0到1之间,而基尼不纯度的取值范围也在0到1之间,但通常基尼不纯度的值略高于信息增益
  3. 应用场景:基尼不纯度在某些情况下更适用于特征选择。特别是在处理多分类问题(类别数较多)时,基尼不纯度通常表现更好,因为它偏向于选择取值较少的特征,可以降低树的复杂度

在选择划分特征时,可以根据具体问题和数据集的特点选择使用信息增益或基尼不纯度。通常情况下,它们都是有效的划分准则,但在不同情况下可能表现出不同的优势。机器学习库(如Scikit-Learn)通常提供了两者的选项,以便根据问题需求进行选择

7.决策树与回归问题

决策树是一种用于分类和回归问题的机器学习模型,它们的主要区别在于应用的问题类型和输出变量的性质。

  1. 分类问题:在分类问题中,目标是将输入数据分为预定义的类别或标签中的一个。决策树用于解决分类问题时,每个叶子节点代表一个类别,模型通过从根节点到叶子节点的路径来确定数据点的类别。例如,可以使用决策树来判断电子邮件是垃圾邮件还是正常邮件、患者是否患有某种疾病等
  2. 回归问题:在回归问题中,目标是预测一个连续的数值输出,而不是分类标签。决策树用于解决回归问题时,每个叶子节点代表一个数值,模型通过从根节点到叶子节点的路径来预测数据点的数值输出。例如,可以使用决策树来预测房屋价格、股票价格等连续性输出
  3. 主要区别:主要区别在于输出变量的性质。分类问题的输出是离散的类别标签,而回归问题的输出是连续的数值。决策树的构建和评估方法在两种问题中基本相同,但叶子节点的表示和预测方式不同
  4. 将决策树应用于回归问题:要将决策树应用于回归问题,需要对其进行一些适应性修改

以下是一些将决策树用于回归问题的关键点:

  1. 叶子节点的表示:在回归决策树中,叶子节点不再代表类别标签,而代表数值。通常,叶子节点的数值是该节点中所有训练样本的目标变量值的平均值
  2. 划分准则:在回归决策树中,常用的划分准则包括均方误差(Mean Squared Error)和平均绝对误差(Mean Absolute Error)。划分时选择使均方误差或平均绝对误差最小化的特征和取值
  3. 剪枝:与分类决策树类似,回归决策树也可以进行剪枝操作,以减小树的复杂度,提高泛化能力
  4. 评估指标:在回归问题中,通常使用均方误差、平均绝对误差、决定系数(R-squared)等指标来评估模型的性能

8.随机森林是什么

随机森林(Random Forest)是一种集成学习算法,用于改进单个决策树模型的性能。是一种强大且广泛应用的机器学习方法,随机森林的核心思想是通过构建多个决策树,并将它们的预测结果结合起来,来提高整体模型的性能和鲁棒性,以下是随机森林是如何改进单个决策树模型性能的主要方式

  1. 随机抽样(Bootstrap抽样):在构建每棵决策树时,随机森林从训练数据中使用有放回抽样(Bootstrap抽样)来创建不同的训练子集。这意味着每棵树使用的数据集都是略有不同的,从而增加了模型的多样性
  2. 随机特征选择:在每次分裂决策树节点时,随机森林不考虑所有特征,而是从所有特征中随机选择一个子集用于分裂。这样可以防止某些特征在模型中占据主导地位,增加了模型的多样性,同时也提高了计算效率
  3. 多数投票或平均:当随机森林中的所有决策树都构建完成后,它们的预测结果会被结合起来。对于分类问题,采用多数投票的方式,即每棵树投票选择类别,最终选择得票最多的类别作为模型的预测结果。对于回归问题,采用平均的方式,即将所有树的预测结果取平均值作为最终预测值
  4. 降低过拟合风险:由于随机森林的每个决策树都是在不同的子集上训练的,因此它们具有较高的多样性,降低了过拟合的风险。这意味着即使训练数据中存在噪声或异常值,随机森林也能够产生稳健的预测
  5. 高性能:随机森林通常在处理大规模数据集时表现良好,因为每棵决策树可以并行构建,从而提高了训练速度。此外,它们通常不需要太多的超参数调整,使其易于使用

总的来说,随机森林通过组合多个决策树,利用随机性和投票策略,改进了单个决策树的性能,提高了模型的泛化能力和鲁棒性,适用于各种机器学习任务,包括分类、回归和特征选择

http://www.lryc.cn/news/2394616.html

相关文章:

  • Netty 实战篇:构建简易注册中心,实现服务发现与调用路由
  • 微信小程序(uniapp)对接腾讯云IM
  • 使用摄像头推流+VLC软件拉流
  • python魔法函数
  • XCUITest 是什么
  • 使用k8s服务进行端口代理
  • 灌水论坛系统总体设计文档
  • Mac M1编译OpenCV获取libopencv_java490.dylib文件
  • 使用 Let‘s Encrypt 和 Certbot 为 Cloudflare 托管的域名申请 SSL 证书
  • 【Python进阶】元编程、并发
  • 网络协议:[0-RTT 认证 ]
  • 单例模式的类和静态方法的类的区别和使用场景
  • flowable中流程变量的概念(作用域)
  • 【基础算法】模拟算法
  • 项目 react+taro 编写的微信 小程序,什么命令,可以减少console的显示
  • Android 开发 Kotlin 全局大喇叭与广播机制
  • 微信小程序关于截图、录屏拦截
  • 基于51单片机的音乐盒键盘演奏proteus仿真
  • 【unity游戏开发——编辑器扩展】EditorUtility编辑器工具类实现如文件操作、进度条、弹窗等操作
  • WPF中自定义消息弹窗
  • Android之ListView
  • 查服务器信息 常用的一些命令 =^^ =
  • PS裁剪后像素未删除?5步解决“删除裁剪像素”失效问题
  • 《Spring Cloud Gateway 快速入门:从路由到自定义 Filter 的完整教程》​
  • 第3节 Node.js 创建第一个应用
  • 我们来学mysql -- “数据备份还原”sh脚本
  • mkcert实现本地https
  • 【排序算法】快速排序详解--附详细流程代码
  • Kerberos面试内容整理-会话密钥的协商与使用
  • 解决各个系统报错TDengine:no taos in java.library.path问题