1. 什么是决策树
决策树算法是一种有监督学习算法,利用分类的思想,根据数据的特征构建数学模型,从而达到数据的筛选,决策的目标。
决策树( Decision Tree) 又称为判定树,是数据挖掘技术中的一种重要的【分类与回归方法】,它是一种以树结构(包括二叉树和多叉树)形式 来表达的预测分析模型。
其每个非叶节点表示一个特征 属性上的测试,每个分支代表这个特征属性在某个值域上的输出,而每个叶节点存放一个类别。
决策树(Decision Tree)是一个树结构
1. 结点和有向边组成
2. 结点分为:内部结点 和 叶子结点
3. ### 内部结点表示一个特征; 叶子结点表示一个分类 ###
2. 决策树算法
1. ID3算法(只能处理分类问题,不能处理回归问题)
核心思想:在各级结点上,使用 ### **【信息增益】** ### 的方法作为属性的选择标准,以此来确定每个结点所采用的合适的属性;
缺点:
1)仅支持离散数据;
2)不能处理缺失值
3)不能剪枝
2. C4.5算法(只能处理分类问题,不能处理回归问题)
核心思想:
相对于ID3的改进是使用 ### 【信息增益率】 ### 的方法;
改进ID3的点:
1)C4.5算法既能处理离散的描述属性,也可以处理连续的描述属性
2)能处理缺失值
3)可以剪枝
3. CART算法(Classification and Regression Tree,即分类与回归树,既可以用于分类,也可以用于回归)
处理分类问题--使用 **基尼系数(基尼杂质系数 或 基尼不纯系数)** 选择特征
CART建立的分类树是 **二叉树** ,不是多叉树
3 决策树优缺点
优点:
【速度快 】:计算量相对较小,且容易转化成分类规则。只要沿着树根向下一直走到叶,沿途的分裂条件就能够唯一确定一条分类的谓词。
【准确性高 】:挖掘出的分类规则准确性高,便于理解,决策树可以清晰的显示哪些字段比较重要。
计算量 相对不是很大
非参数学习,不需要设置参数。
缺点:
决策树很容易【过拟合】 ,很多时候即使进行后剪枝也无法避免过拟合的问题,因此可以通过设置树深或者叶节点中的样本个数来进行预剪枝控制;
决策树属于【样本敏感型】,泛化能力较差,即使样本发生一点点改动,也会导致整个树结构的变化,可以通过集成算法来解决;
4 skearn 决策树 api
sklearn.tree.DecisionTreeClassifier()
特征选择标准,可选参数,默认是gini,可以设置为entropy。
gini是基尼不纯度,是将来自集合的某种结果随机应用于某一数据项的预期误差率,是一种基于统计的思想。
entropy是香农熵,是一种基于信息论的思想。
Sklearn把gini设为默认参数,应该也是做了相应的斟酌的,精度或许会更高一些。
接口: sklearn.tree.DecisionTreeClassifier()
根据传入参数的不同调用不同的决策树算法
参数:
1)当参数为entropy,启动ID3算法:
sklearn.tree.DecisionTreeClassifier("entropy")
2)当参数为gini,启用CART算法:
sklearn.tree.DecisionTreeClassifier("gini")
5 实例
1) 导入sklearn的tree包
from sklearn import tree
2)准备数据,特征集X_train,标签集 y_train
3)实例化模型,
model = tree.DecisionTreeClassifier(criterion="entropy") # criterion="gini"为CART算法
4)模型训练(拟化)
model.fit(X_train,y_train)
score=model.score(x_train,y_train) # 模型对于测试集的平均精度
5)模型应用,预测 model.predict(X_新特征集)
python
# 导入相关库
from sklearn.model_selection import train_test_split
from sklearn import tree
from sklearn.datasets import load_wine
import pandas as pd
# 导入数据集
wine = load_wine()
X = wine.data
Y = wine.target
features_name = wine.feature_names
print(features_name)
print(pd.concat([pd.DataFrame(X), pd.DataFrame(Y)], axis=1))
# 打印数据
# 划分数据集,数据集划分为测试集占20%;
x_train, x_test, y_train, y_test = train_test_split(
X, Y, test_size=0.2, random_state=0)
# 采用ID3算法进行计算;
# criterion: 标准
# entropy:熵,混乱,无序
# gini:基尼
# criterion="entropy" 代表ID3算法;不传任何参数,即默认值为gini,代表CART算法
clf = tree.DecisionTreeClassifier(criterion="entropy") # criterion="entropy" 代表ID3算法
# 采用CART算法进行计算
# clf = tree.DecisionTreeClassifier(criterion="gini") # criterion="gini" 代表CART算法
# 获取模型
clf.fit(x_train, y_train)
# 返回测试集预测的平均精度
score = clf.score(x_test, y_test)
print('准确率为:', score)
y_predict = clf.predict(x_test)
# 对测试集的预测类别标签和真实标签进行对比
print(pd.concat([pd.DataFrame(x_test), pd.DataFrame(y_test), pd.DataFrame(y_predict)], axis=1))