当前位置: 首页 > article >正文

机器学习——使用多个决策树

使用单一决策树的弱点之一是决策树对数据中的微小变化非常敏感,一个使算法不那么敏感或更健壮的解决方案,不是建立一个决策树,而是要建立大量的决策树,我们称之为树合奏

在这个例子中,我们一直在使用最好的特性来分割,在根部结节原来是耳朵形状,分成两个子集,然后在数据的这两个子集上构建进一步的子树,但事实证明,如果你只拿十个例子中的一个换一只猫,所以除了尖尖的耳朵,圆脸和胡须都消失,这只新猫有软软的圆脸胡须,只需改变一个训练示例,最高信息增益功能分裂成为胡须功能代替耳形特征,结果就是,你在左边和右边得到的数据子集,子树变得完全不同,当继续递归地运行决策树学习算法时,在左边和右边构建完全不同的子树,所以,仅仅改变一个训练例子就能导致算法在根节点进行不同的分割,从而得到完全不同的树。也就是说,如果不仅训练单个决策树,而是训练一大堆决策树,会得到更加准确的效果,这就是我们所说的树集成

如果有三个树集成,每一个都是合理的区分猫和非猫的方法。如果有一个新的测试样本需要分类,你要做的是在这个新样本中运行这三棵树,并让它们对最终预测进行投票。比如,这个测试样本有尖尖的耳朵,不是圆形的脸型,并且有胡须,所以第一棵树会得到这样的推断,推测它是一只猫,第二棵树的推断会沿着这条路径,因此预测它不是一只猫,第三颗树沿着相同的路径,推测它是一只猫。这三棵树的预测不同,所以实际上我们会让它们投票,这三棵树的预测中多数票是猫,所以这些树的最终预测是:这是一只猫。这恰好是正确的预测。

使用

使用树集成的原因是由于拥有大量的决策树,并让它们进行投票,这使得整体算法对任何单棵树的影响变得不那么敏感。

http://www.lryc.cn/news/2398294.html

相关文章:

  • C# 中的对话框与导航:构建流畅用户交互的完整指南
  • DeepSeek - 尝试一下GitHub Models中的DeepSeek
  • 【判断酒酒花数】2022-3-31
  • 对称加密-非对称加密
  • 【OCCT+ImGUI系列】011-Poly-Poly_Triangle三角形面片
  • 【机器学习基础】机器学习入门核心算法:Mini-Batch K-Means算法
  • 机器学习实战36-基于遗传算法的水泵调度优化项目研究与代码实现
  • 计算机视觉与深度学习 | 基于Matlab的门禁指纹识别与人脸识别双系统实现
  • TypeScript 定义同步方法
  • debian12.9或ubuntu,vagrant离线安装插件vagrant-libvirt,20250601
  • 【仿muduo库实现并发服务器】使用正则表达式提取HTTP元素
  • 核心机制:流量控制
  • Java中并发修改异常如何处理
  • 极智项目 | 基于PyQT实现的YOLOv12行人目标检测软件设计
  • JavaScript 对象展开语法
  • 简单transformer运用
  • vscode不满足先决条件问题的解决——vscode的老版本安装与禁止更新(附安装包)
  • RustDesk 搭建自建服务器并设置服务自启动
  • 【数据库】数据库恢复技术
  • Qt企业级串口通信实战:高效稳定的工业级应用开发指南
  • 力扣HOT100之动态规划:32. 最长有效括号
  • 深入理解前端DOM:现代Web开发的基石
  • Springboot中Controller接收参数的方式
  • 从一堆数字里长出一棵树:中序 + 后序构建二叉树的递归密码
  • Unity UI 性能优化终极指南 — Image篇
  • Nginx + Tomcat 负载均衡、动静分离群集
  • 【maker-pdf 文档文字识别(包含ocr),安装使用完整教程】
  • c++ algorithm
  • 《前端面试题:BFC(块级格式化上下文)》
  • HertzBeat的告警规则如何配置?