决策树回归原理详解及Python代码示例

决策树回归原理详解

决策树回归(Decision Tree Regression)是一种非参数监督学习方法,它使用树形结构来对目标变量进行预测。与线性回归模型不同,决策树回归不需要预先假设数据的分布形式,因此能够很好地处理非线性和高维数据。

目录

决策树回归原理详解

[1. 决策树回归的基本概念](#1. 决策树回归的基本概念)

[2. 决策树的构建过程](#2. 决策树的构建过程)

[3. 决策树回归的优缺点](#3. 决策树回归的优缺点)

Python代码示例

详细代码及结果解释

代码解释


  1. 决策树回归的基本概念

决策树回归通过递归地将数据集划分为更小的子集,并在每个子集上构建简单的预测模型。树中的每个节点表示一个特征,节点的分裂则是根据该特征的某个阈值将数据集分成两部分。树的叶子节点包含目标变量的预测值。

  1. 决策树的构建过程

  2. 选择最优分裂点:选择一个特征及其相应的分裂点,使得数据集在该特征上的分裂能最大程度地减少目标变量的方差(或均方误差)。

  3. 递归分裂:在每个分裂的子集上重复上述过程,直到满足停止条件(如达到最大深度或叶节点样本数量小于某个阈值)。

  4. 生成叶子节点:停止分裂后,叶子节点的值设为该子集上目标变量的均值。

  5. 决策树回归的优缺点

优点

  • 简单易理解,可视化效果好。
  • 对数据预处理要求较低(无需归一化或标准化)。
  • 能处理多种数据类型(数值型、分类型)。
  • 适用于处理非线性关系。

缺点

  • 容易过拟合,特别是树的深度较大时。
  • 对小数据集敏感,容易产生较大波动。
  • 在某些情况下,结果不稳定(对噪声数据敏感)。

Python代码示例

详细代码及结果解释

python 复制代码
import numpy as np
import matplotlib.pyplot as plt
from sklearn.tree import DecisionTreeRegressor
from sklearn.metrics import mean_squared_error

# 生成一些示例数据
np.random.seed(0)
x = np.sort(5 * np.random.rand(80, 1), axis=0)
y = np.sin(x).ravel()
y[::5] += 3 * (0.5 - np.random.rand(16))  # 添加噪声

# 可视化原始数据
plt.scatter(x, y, s=20, edgecolor="black", c="darkorange", label="data")
plt.title("Original Data")
plt.show()

# 创建决策树回归模型并进行拟合
regr_1 = DecisionTreeRegressor(max_depth=2)
regr_2 = DecisionTreeRegressor(max_depth=5)
regr_1.fit(x, y)
regr_2.fit(x, y)

# 预测结果
x_test = np.arange(0.0, 5.0, 0.01)[:, np.newaxis]
y_1 = regr_1.predict(x_test)
y_2 = regr_2.predict(x_test)

# 可视化拟合结果
plt.figure()
plt.scatter(x, y, s=20, edgecolor="black", c="darkorange", label="data")
plt.plot(x_test, y_1, color="cornflowerblue", label="max_depth=2", linewidth=2)
plt.plot(x_test, y_2, color="yellowgreen", label="max_depth=5", linewidth=2)
plt.title("Decision Tree Regression")
plt.legend()
plt.show()

# 打印模型参数和均方误差
print("Max depth 2 - Mean Squared Error:", mean_squared_error(y, regr_1.predict(x)))
print("Max depth 5 - Mean Squared Error:", mean_squared_error(y, regr_2.predict(x)))

代码解释

  1. 数据生成

    • 生成80个随机点,并将这些点排序。
    • 使用正弦函数生成目标值,并在每五个数据点上添加噪声以增加数据的复杂性。
  2. 数据可视化

    • 绘制生成的原始数据点,用散点图表示。
  3. 模型训练

    • 创建两个决策树回归模型,一个最大深度为2,另一个最大深度为5。
    • 在生成的数据集上训练两个模型。
  4. 结果预测

    • 在测试数据集(0到5的范围内,每隔0.01一个点)上进行预测。
    • 分别得到深度为2和5的模型的预测结果。
  5. 可视化拟合结果

    • 绘制原始数据点和两个模型的拟合曲线,观察不同深度下的拟合效果。
    • 深度为2的模型(蓝色曲线)较为平滑,但可能欠拟合。
    • 深度为5的模型(绿色曲线)较为复杂,能够更好地拟合数据,但有可能过拟合。
  6. 模型评估

    • 计算并打印两个模型的均方误差(MSE),评估其在训练数据上的拟合效果。
    • 打印结果表明,随着树的深度增加,MSE可能会降低,但也会增加过拟合的风险。
相关推荐
IVEN_4 小时前
只会Python皮毛?深入理解这几点,轻松进阶全栈开发
python·全栈
Ray Liang5 小时前
用六边形架构与整洁架构对比是伪命题?
java·python·c#·架构设计
AI攻城狮5 小时前
如何给 AI Agent 做"断舍离":OpenClaw Session 自动清理实践
python
千寻girling5 小时前
一份不可多得的 《 Python 》语言教程
人工智能·后端·python
AI攻城狮8 小时前
用 Playwright 实现博客一键发布到稀土掘金
python·自动化运维
曲幽9 小时前
FastAPI分布式系统实战:拆解分布式系统中常见问题及解决方案
redis·python·fastapi·web·httpx·lock·asyncio
孟健1 天前
Karpathy 用 200 行纯 Python 从零实现 GPT:代码逐行解析
python
码路飞1 天前
写了个 AI 聊天页面,被 5 种流式格式折腾了一整天 😭
javascript·python
曲幽1 天前
FastAPI压力测试实战:Locust模拟真实用户并发及优化建议
python·fastapi·web·locust·asyncio·test·uvicorn·workers