决策树基本原理&sklearn实现

1. 什么是决策树

决策树算法是一种有监督学习算法,利用分类的思想,根据数据的特征构建数学模型,从而达到数据的筛选,决策的目标。

决策树( Decision Tree) 又称为判定树,是数据挖掘技术中的一种重要的【分类与回归方法】,它是一种以树结构(包括二叉树和多叉树)形式 来表达的预测分析模型。

其每个非叶节点表示一个特征 属性上的测试,每个分支代表这个特征属性在某个值域上的输出,而每个叶节点存放一个类别

决策树(Decision Tree)是一个树结构
1. 结点和有向边组成
2. 结点分为:内部结点 和 叶子结点
3. ### 内部结点表示一个特征; 叶子结点表示一个分类 ###

2. 决策树算法

1. ID3算法(只能处理分类问题,不能处理回归问题)
    核心思想:在各级结点上,使用 ### **【信息增益】** ### 的方法作为属性的选择标准,以此来确定每个结点所采用的合适的属性;
    缺点:
        1)仅支持离散数据;
        2)不能处理缺失值
        3)不能剪枝
2. C4.5算法(只能处理分类问题,不能处理回归问题)
    核心思想:
        相对于ID3的改进是使用 ### 【信息增益率】 ### 的方法;
    改进ID3的点:
        1)C4.5算法既能处理离散的描述属性,也可以处理连续的描述属性
        2)能处理缺失值
        3)可以剪枝
3. CART算法(Classification and Regression Tree,即分类与回归树,既可以用于分类,也可以用于回归)
    处理分类问题--使用 **基尼系数(基尼杂质系数 或 基尼不纯系数)** 选择特征
    CART建立的分类树是 **二叉树** ,不是多叉树

3 决策树优缺点

优点:

速度快 】:计算量相对较小,且容易转化成分类规则。只要沿着树根向下一直走到叶,沿途的分裂条件就能够唯一确定一条分类的谓词。

准确性高 】:挖掘出的分类规则准确性高,便于理解,决策树可以清晰的显示哪些字段比较重要。
计算量 相对不是很大
非参数学习,不需要设置参数。

缺点:

决策树很容易【过拟合】 ,很多时候即使进行后剪枝也无法避免过拟合的问题,因此可以通过设置树深或者叶节点中的样本个数来进行预剪枝控制;

决策树属于【样本敏感型】,泛化能力较差,即使样本发生一点点改动,也会导致整个树结构的变化,可以通过集成算法来解决;

4 skearn 决策树 api

sklearn.tree.DecisionTreeClassifier()

特征选择标准,可选参数,默认是gini,可以设置为entropy。

gini是基尼不纯度,是将来自集合的某种结果随机应用于某一数据项的预期误差率,是一种基于统计的思想。

entropy是香农熵,是一种基于信息论的思想。

Sklearn把gini设为默认参数,应该也是做了相应的斟酌的,精度或许会更高一些。

接口: sklearn.tree.DecisionTreeClassifier()

根据传入参数的不同调用不同的决策树算法

参数:

1)当参数为entropy,启动ID3算法:

sklearn.tree.DecisionTreeClassifier("entropy")

2)当参数为gini,启用CART算法:

sklearn.tree.DecisionTreeClassifier("gini")

5 实例

1) 导入sklearn的tree包

from sklearn import tree

2)准备数据,特征集X_train,标签集 y_train

3)实例化模型,

model = tree.DecisionTreeClassifier(criterion="entropy") # criterion="gini"为CART算法

4)模型训练(拟化)

model.fit(X_train,y_train)

score=model.score(x_train,y_train) # 模型对于测试集的平均精度

5)模型应用,预测 model.predict(X_新特征集)

python 复制代码
# 导入相关库
from sklearn.model_selection import train_test_split
from sklearn import tree
from sklearn.datasets import load_wine
import pandas as pd

# 导入数据集
wine = load_wine()

X = wine.data
Y = wine.target
features_name = wine.feature_names
print(features_name)
print(pd.concat([pd.DataFrame(X), pd.DataFrame(Y)], axis=1))
# 打印数据
# 划分数据集,数据集划分为测试集占20%;
x_train, x_test, y_train, y_test = train_test_split(
    X, Y, test_size=0.2, random_state=0)

# 采用ID3算法进行计算;
# criterion: 标准
# entropy:熵,混乱,无序
# gini:基尼
# criterion="entropy" 代表ID3算法;不传任何参数,即默认值为gini,代表CART算法
clf = tree.DecisionTreeClassifier(criterion="entropy")  # criterion="entropy" 代表ID3算法

# 采用CART算法进行计算
# clf = tree.DecisionTreeClassifier(criterion="gini") # criterion="gini" 代表CART算法
# 获取模型
clf.fit(x_train, y_train)

# 返回测试集预测的平均精度
score = clf.score(x_test, y_test)
print('准确率为:', score)

y_predict = clf.predict(x_test)

# 对测试集的预测类别标签和真实标签进行对比
print(pd.concat([pd.DataFrame(x_test), pd.DataFrame(y_test), pd.DataFrame(y_predict)], axis=1))
相关推荐
斯凯利.瑞恩6 分钟前
Python决策树、随机森林、朴素贝叶斯、KNN(K-最近邻居)分类分析银行拉新活动挖掘潜在贷款客户附数据代码
python·决策树·随机森林
幸运超级加倍~20 分钟前
软件设计师-上午题-16 算法(4-5分)
笔记·算法
yannan2019031327 分钟前
【算法】(Python)动态规划
python·算法·动态规划
埃菲尔铁塔_CV算法29 分钟前
人工智能图像算法:开启视觉新时代的钥匙
人工智能·算法
EasyCVR29 分钟前
EHOME视频平台EasyCVR视频融合平台使用OBS进行RTMP推流,WebRTC播放出现抖动、卡顿如何解决?
人工智能·算法·ffmpeg·音视频·webrtc·监控视频接入
linsa_pursuer30 分钟前
快乐数算法
算法·leetcode·职场和发展
小芒果_0132 分钟前
P11229 [CSP-J 2024] 小木棍
c++·算法·信息学奥赛
MarkHD32 分钟前
第十一天 线性代数基础
线性代数·决策树·机器学习
qq_4340859033 分钟前
Day 52 || 739. 每日温度 、 496.下一个更大元素 I 、503.下一个更大元素II
算法
Beau_Will33 分钟前
ZISUOJ 2024算法基础公选课练习一(2)
算法