sklearn中的决策树-分类树:剪枝参数

剪枝参数

  • 在不加限制的情况下,一棵决策树会生长到衡量不纯度的指标最优,或者没有更多的特征可用为止。这样的决策树 往往会过拟合。为了让决策树有更好的泛化性,我们要对决策树进行剪枝。剪枝策略对决策树的影响巨大,正确的剪枝策略是优化 决策树算法的核心。sklearn为我们提供了不同的剪枝策略:
max_depth
  • 限制树的最大深度,超过设定深度的树枝全部剪掉

    这是用得最广泛的剪枝参数,在高维度低样本量时非常有效。决策树多生长一层,对样本量的需求会增加一倍,所 以限制树深度能够有效地限制过拟合。在集成算法中也非常实用。实际使用时,建议从=3开始尝试,看看拟合的效 果再决定是否增加设定深度。

min_samples_leaf & min_samples_split
  • min_samples_leaf限定,一个节点在分枝后的每个子节点都必须包含至少min_samples_leaf个训练样本,否则分 枝就不会发生,或者,分枝会朝着满足每个子节点都包含min_samples_leaf个样本的方向去发生。

    min_samples_leaf限定,一个节点在分枝后的每个子节点都必须包含至少min_samples_leaf个训练样本,否则分 枝就不会发生,或者,分枝会朝着满足每个子节点都包含min_samples_leaf个样本的方向去发生 一般搭配max_depth使用,在回归树中有神奇的效果,可以让模型变得更加平滑。这个参数的数量设置得太小会引 起过拟合,设置得太大就会阻止模型学习数据。一般来说,建议从=5开始使用。如果叶节点中含有的样本量变化很 大,建议输入浮点数作为样本量的百分比来使用。同时,这个参数可以保证每个叶子的最小尺寸,可以在回归问题 中避免低方差,过拟合的叶子节点出现。对于类别不多的分类问题,=1通常就是最佳选择。

  • min_samples_split限定,一个节点必须要包含至少min_samples_split个训练样本,这个节点才允许被分枝,否则 分枝就不会发生。

  • min_samples_leaf = 10

    min_samples_split = 25

    python 复制代码
    # -*- coding: utf-8 -*-
    
    """
    **************************************************
    @author:   Ying                                      
    @software: PyCharm                       
    @file: 3、分类树_min_samples_leaf& min_samples_split.py
    @time: 2021-08-26 10:51                          
    **************************************************
    """
    from sklearn import tree
    from sklearn.datasets import load_wine
    from sklearn.model_selection import train_test_split
    import pandas as pd
    import graphviz
    
    # 加载数据
    wine = load_wine()
    data = pd.DataFrame(wine.data, columns=wine.feature_names)  # X
    target = pd.DataFrame(wine.target)  # y
    
    # 划分训练测试集
    X_train, X_test, y_train, y_test = train_test_split(data, target, test_size=0.3)
    
    clf = tree.DecisionTreeClassifier(criterion="entropy"
                                      , random_state=30
                                      , splitter="random"
                                      , max_depth=3
                                      , min_samples_leaf=10
                                      , min_samples_split=25
                                      )
    
    clf.fit(X_train, y_train)
    score = clf.score(X_test, y_test)  # 返回预测的准确度
    
    # 保存决策树图
    feature_name = ['酒精', '苹果酸', '灰', '灰的碱性', '镁', '总酚', '类黄酮', '非黄烷类酚类',
                    '花青素', '颜色强度', '色调', 'od280/od315稀释葡萄酒', '脯氨酸']
    
    dot_data = tree.export_graphviz(clf
                                    , feature_names=feature_name
                                    , class_names=["琴酒", "雪莉", "贝尔摩德"]
                                    , filled=True  # 填充颜色
                                    , rounded=True  # 圆角
                                    )
    graph = graphviz.Source(dot_data)
    
    graph.render(view=True, format="png", filename="./save/decisiontree_pdf")
    
    # 特征重要性
    feature_importances = clf.feature_importances_
    
    a = pd.DataFrame([*zip(feature_name, feature_importances)])
    a.columns = ['feature', 'importance']
    a.sort_values('importance', ascending=False, inplace=True)
    print(a)

max_features & min_impurity_decrease
  • 一般max_depth使用,用作树的"精修" max_features限制分枝时考虑的特征个数,超过限制个数的特征都会被舍弃。和max_depth异曲同工, max_features是用来限制高维度数据的过拟合的剪枝参数,但其方法比较暴力,是直接限制可以使用的特征数量 而强行使决策树停下的参数,在不知道决策树中的各个特征的重要性的情况下,强行设定这个参数可能会导致模型 学习不足。如果希望通过降维的方式防止过拟合,建议使用PCA,ICA或者特征选择模块中的降维算法。 min_impurity_decrease限制信息增益的大小,信息增益小于设定数值的分枝不会发生。这是在0.19版本中更新的 功能,在0.19版本之前时使用min_impurity_split。
确定最优剪枝参数(超参数曲线)
  • 那具体怎么来确定每个参数填写什么值呢?这时候,我们就要使用确定超参数的曲线来进行判断了,继续使用我们 已经训练好的决策树模型clf。超参数的学习曲线,是一条以超参数的取值为横坐标,模型的度量指标为纵坐标的曲 线,它是用来衡量不同超参数取值下模型的表现的线。在我们建好的决策树里,我们的模型度量指标就是score。

    python 复制代码
    # -*- coding: utf-8 -*-
    
    """
    **************************************************
    @author:   Ying                                      
    @software: PyCharm                       
    @file: 4、分类树_超参数曲线.py
    @time: 2021-12-01 11:28                          
    **************************************************
    """
    
    from sklearn import tree
    from sklearn.datasets import load_wine
    from sklearn.model_selection import train_test_split
    import pandas as pd
    import matplotlib.pyplot as plt
    
    # 加载数据
    wine = load_wine()
    data = pd.DataFrame(wine.data, columns=wine.feature_names)  # X
    target = pd.DataFrame(wine.target)  # y
    
    # 划分训练测试集
    X_train, X_test, y_train, y_test = train_test_split(data, target, test_size=0.3)
    
    
    
    test = []
    for i in range(10):
        clf = tree.DecisionTreeClassifier(max_depth=i+1
                                          ,criterion="entropy"
                                          ,random_state=10
                                          ,splitter='random')
        clf = clf.fit(X_train, y_train)
        score = clf.score(X_test, y_test)
        test.append(score)
    plt.plot(range(1,11),test,color="red",label="max_depth")
    plt.legend()
    plt.show()

相关推荐
阿钱真强道1 小时前
28 Python 分类:不只是画一条线,一文认识支持向量机(SVM)
python·支持向量机·分类·svm·边界·核方法·高维
木井巳2 小时前
【递归算法】全排列
算法·leetcode·决策树·深度优先·剪枝
Simon_lca13 小时前
突破合规瓶颈:ZDHC Supplier to Zero(工厂零排放 - 进阶型)体系全攻略
大数据·网络·人工智能·分类·数据挖掘·数据分析·零售
罗小罗同学13 小时前
哈工大团队联合德累斯顿工业大学联合发布医学AI智能体综述,讲述计算病理如何从图像分类任务演变成自主诊段工作流
人工智能·分类·数据挖掘·医学图像处理·医学人工智能·医工交叉·医学ai
国医中兴20 小时前
Python AI入门:从Hello World到图像分类
人工智能·python·分类
阿钱真强道1 天前
26 Python 分类:一个模型不够稳怎么办?一文认识组合分类
python·随机森林·分类·提升·组合分类·装袋·投票分类器
Daydream.V1 天前
多分类——8种算法进行类比
人工智能·分类·数据挖掘
Fleshy数模1 天前
多分类任务下的经典机器学习算法实战:LR、RF、SVM等对比分析
算法·机器学习·分类
DeepModel1 天前
【分类算法】逻辑回归超详细讲解
分类·数据挖掘·逻辑回归
輕華2 天前
矿物成分数据智能分类实战(三):以平均值填充数据集的pytorch框架和MLP算法实现与性能分析
pytorch·分类·数据挖掘