目录
前言
一、决策树是什么?
二、实验过程
1.选择数据集中各个决策属性的优先级
1.1信息熵
1.2增益率
1.3基尼指数
2.决策树的构造
2.1创建决策树:
2.2准备数据:
2.3.读取和保存决策树:
2.4绘制决策树:
3运行结果:
3.1利用信息熵进行构造
3.2利用增益率进行构造决策树:
3.3利用基尼指数进行构造决策树:
总结
前言
决策树(Decision Tree)是一种简单但是广泛使用的分类器。通过训练数据构建决策树,可以高效的对未知的数据进行分类。决策数有两大优点:1)决策树模型可以读性好,具有描述性,有助于人工分析;2)效率高,决策树只需要一次构建,反复使用,每一次预测的最大计算次数不超过决策树的深度。
一、决策树是什么?
决策树(decision tree):是一种基本的分类与回归方法,此处主要讨论分类的决策树。
决策树通常有三个步骤:特征选择、决策树的生成、决策树的修剪。
用决策树分类:从根节点开始,对实例的某一特征进行测试,根据测试结果将实例分配到其子节点,此时每