当前位置: 首页 > news >正文

决策树的优缺点

决策树优点
1. 易于理解和解释,因为树木可以画出来被看见
2. 需要很少的数据准备。其他很多算法通常都需要数据规范化,需要创建虚拟变量并删除空值等。但请注意, sklearn中的决策树模块不支持对缺失值的处理。
3. 使用树的成本(比如说,在预测数据的时候)是用于训练树的数据点的数量的对数,相比于其他算法,这是 一个很低的成本。
4. 能够同时处理数字和分类数据,既可以做回归又可以做分类。其他技术通常专门用于分析仅具有一种变量类 型的数据集。
5. 能够处理多输出问题,即含有多个标签的问题,注意与一个标签中含有多种标签分类的问题区别开
6. 是一个白盒模型,结果很容易能够被解释。如果在模型中可以观察到给定的情况,则可以通过布尔逻辑轻松 解释条件。相反,在黑盒模型中(例如,在人工神经网络中),结果可能更难以解释。
7. 可以使用统计测试验证模型,这让我们可以考虑模型的可靠性。
8. 即使其假设在某种程度上违反了生成数据的真实模型,也能够表现良好。
决策树的缺点
1. 决策树学习者可能创建过于复杂的树,这些树不能很好地推广数据。这称为过度拟合。修剪,设置叶节点所 需的最小样本数或设置树的最大深度等机制是避免此问题所必需的,而这些参数的整合和调整对初学者来说 会比较晦涩
2. 决策树可能不稳定,数据中微小的变化可能导致生成完全不同的树,这个问题需要通过集成算法来解决。
3. 决策树的学习是基于贪婪算法,它靠优化局部最优(每个节点的最优)来试图达到整体的最优,但这种做法 不能保证返回全局最优决策树。这个问题也可以由集成算法来解决,在随机森林中,特征和样本会在分枝过 程中被随机采样。
4. 有些概念很难学习,因为决策树不容易表达它们,例如XOR,奇偶校验或多路复用器问题。
5. 如果标签中的某些类占主导地位,决策树学习者会创建偏向主导类的树。因此,建议在拟合决策树之前平衡 数据集。

http://www.lryc.cn/news/213224.html

相关文章:

  • Flask后端开发(二) - 功能实现和项目总结
  • 思维训练第五课插入语和主谓一致
  • 开源利器:it-tools 项目介绍
  • 基于和声算法的无人机航迹规划-附代码
  • [Linux]线程池
  • 使用es实现轻量级分布式锁
  • 富文本编辑器特殊字符的解码编码
  • 几种软件开发方法对比
  • 在Maven中发布项目到Nexus私有服务器
  • TypeScript - 类 -类的继承
  • QT: QLineEdit 密码模式、QLineEdit输入模式
  • ES6中Map集合
  • 【Leetcode Sheet】Weekly Practice 13
  • 技术贴 | 一文掌握 Google Test 框架
  • 基于深度学习的中文情感分类 - 卷积神经网络 情感分类 情感分析 情感识别 评论情感分类 计算机竞赛
  • 非线性时滞系统的无模型预测控制
  • 局域网内两台电脑共享文件夹(通过网线直连共享数据)
  • 什么是 CNN? 卷积神经网络? 怎么用 CNN 进行分类?(3)
  • 一致性hash负载均衡
  • MAC下安装Python
  • Android NDK开发详解之JNI中的库文件
  • KNN模型
  • Python 学习1 基础
  • 网络协议--TCP的超时与重传
  • Thread
  • FOC系列(二)----继续学习DRV8301芯片
  • A. Directional Increase -前缀和与差分理解 + 思维
  • openpnp - java调试环境 - 最好只保留一套jdk环境
  • AI技术的钓鱼邮件有多强
  • vue/react项目刷新页面出现404报错的原因及解决办法