python:讲懂决策树,为理解随机森林算法做准备,以示例带学习,通俗易懂,容易理解和掌握

为什么要讲和学习决策树呢?主要是决策树(包括随机森林算法)不需要数据的预处理。现实世界的数据往往"脏乱差",决策树让你在数据准备上可以少花很多功夫,快速上手,用起来非常的"省心"。总之,决策树是机器学习领域里最直观易懂、解释性最强、应用最广泛的基础模型之一,学会它,你就掌握了一把打开预测分析大门、理解更高级模型的金钥匙。

下面开始我们的学习吧。

目录

一、什么是决策树

二、具体程序与不同参数运行效果对比

三、小结与建议


一、什么是决策树

决策树是一种在分类与回归中都有非常广泛应用的算法。它的原理是通过对一系列问题进行if/else 的推导,最终实现决策。学过C语言的知道,if/else使用来做判断的,决策树就是对样本数据特征做一些列的判断来实现决策的。

**举个例子:**假设要识别斯嘉丽· 约翰逊、泰勒斯威夫特、吴彦祖、威尔·史密斯4 个人中的一个,则决策树的判断流程为:

上图中最终的4 个节点,也就是4 个人物的名字,被称为决策树的树叶。例子中的这棵决策树只有4 片树叶,所以通过手动的方式就可以进行建模 。但是如果样本的特征特别多, 就不得不使用机器学习的办法来进行建模了

重点来了,决策树你可以理解为一些列(很多)的if/else判断被打包的一个算法。

**我们再给某一个python决策树算法程序的实际决策过程,如下图。**是不是决策树实际运行中就是一步步做判断的啊,大家理解了吧。

决策树算法运行实际分类过程样例

二、具体程序与不同参数运行效果对比

该程序使用鸢尾花数据集(包含150个样本的4种特征),通过决策树算法根据花萼/花瓣的尺寸特征预测鸢尾花品种(山鸢尾、变色鸢尾、维吉尼亚鸢尾)。**程序比较了不同max_depth参数值(1/2/3/无限制)**对模型复杂度、准确率和可解释性的影响。

max_depth参数是决策树的重要参数,它是决策树的深度,它的值越大,代表决策树判断的层级越多,的深度越深。

**下面是python决策树的具体源程序,运行效果在程序的下面,效果里面展示了不同决策树的判断流程及效果。**大家可以更直观的看不同max_depth参数值下的决策过程。

python 复制代码
from sklearn.datasets import load_iris
from sklearn.tree import DecisionTreeClassifier, plot_tree
from sklearn.model_selection import train_test_split
from sklearn.metrics import accuracy_score
import matplotlib.pyplot as plt

# 加载鸢尾花数据集
iris = load_iris()
X, y = iris.data, iris.target
feature_names = iris.feature_names
class_names = iris.target_names

# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.3, random_state=42)

# 测试不同max_depth值
depth_values = [1, 2, 3, None]  # None表示不限制深度
results = {}

for depth in depth_values:
    # 创建决策树模型
    tree_model = DecisionTreeClassifier(max_depth=depth, random_state=42)
    
    # 训练模型
    tree_model.fit(X_train, y_train)
    
    # 预测并评估
    y_pred = tree_model.predict(X_test)
    accuracy = accuracy_score(y_test, y_pred)
    
    # 存储结果
    results[depth] = {
        'model': tree_model,
        'accuracy': accuracy,
        'n_nodes': tree_model.tree_.node_count
    }
    
    # 可视化决策树
    plt.figure(figsize=(12, 8))
    plot_tree(tree_model, 
              feature_names=feature_names,
              class_names=class_names,
              filled=True, 
              rounded=True)
    plt.title(f"Decision Tree (max_depth={depth}, Accuracy={accuracy:.2f})")
    plt.show()

# 打印结果比较
print("深度 vs 准确率 vs 节点数:")
for depth, data in results.items():
    print(f"max_depth={depth}: 准确率={data['accuracy']:.4f}, 节点数={data['n_nodes']}")

程序的运行效果如下:

通过运行效果,我们可以看出,max_depth参数的值越大,深度越深,准确率越高,但是要避免过拟合。

三、小结与建议

  1. 深度与复杂度:深度增加会提升模型复杂度(节点数增加),但过深会导致过拟合

  2. 准确率曲线:本例中深度3达到最佳平衡(98%准确率),继续加深不提升精度

  3. 实践建议

    • 从深度3-5开始调试

    • 使用交叉验证选择最优深度

    • 配合min_samples_split/min_samples_leaf防过拟合

    • 高深度树可考虑转换为随机森林

  4. 业务场景

    • 需要解释性:选择深度≤3

    • 追求精度:尝试深度5-8

    • 医疗/金融领域:优先选择深度≤4的可解释模型

以上就是本文的内容, 希望大家能够有收获。

请大家点赞、收藏和加关注吧。

相关推荐
李可以量化1 分钟前
Python之如何做出交易日历(上)
人工智能·算法·qmt·量化 qmt ptrade
会编程的土豆4 分钟前
【数据结构与算法】新二叉树
数据结构·算法·二叉树
2201_7610405910 分钟前
Golang怎么安全关闭channel_Golang channel关闭教程【通俗】
jvm·数据库·python
jerryinwuhan11 分钟前
基于结构可控性的给水管网传感器布点选择算法
数据库·算法
m0_4939345311 分钟前
Redis怎样合并多天访客数据_通过PFMERGE指令聚合HyperLogLog记录
jvm·数据库·python
南宫萧幕11 分钟前
车辆控制基础:从 EKF 状态估计到非线性 MPC 轨迹跟踪的闭环实现
算法·matlab·汽车·控制·pid
tjc1990100511 分钟前
bootstrap怎么实现响应式的文章瀑布流布局
jvm·数据库·python
点PY12 分钟前
《高质量的实时直接体绘制算法》论文精读
算法
X journey13 分钟前
机器学习进阶(24):主成分分析PCA
人工智能·算法·机器学习
qq_1898070315 分钟前
SQL嵌套查询与物化视图_提升读性能的组合策略
jvm·数据库·python