Kaggle机器学习初级的三种决策树

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录


前言

决策树


一、决策树

单棵决策树 DecisionTreeRegressor

python 复制代码
# 决策树回归案例 - 波士顿房价预测
import pandas as pd
from sklearn.datasets import load_diabetes
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeRegressor, plot_tree
from sklearn.metrics import mean_squared_error, r2_score
import matplotlib.pyplot as plt

# 加载糖尿病数据集
diabetes = load_diabetes()
X = pd.DataFrame(diabetes.data, columns=diabetes.feature_names)
y = diabetes.target

# 数据预处理
X_train, X_test, y_train, y_test = train_test_split(
    X, y, test_size=0.2, random_state=42
)

# 创建并训练决策树模型
dt_reg = DecisionTreeRegressor(
    max_depth=3,  # 限制树深度防止过拟合
    min_samples_split=10,  # 节点最小样本数
    random_state=42
)
dt_reg.fit(X_train, y_train)

# 预测与评估
y_pred = dt_reg.predict(X_test)

print("决策树回归结果:")

随机森林RandomForestRegressor

python 复制代码
# 随机森林回归案例 - 空气质量预测
import pandas as pd
from sklearn.datasets import fetch_openml
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestRegressor
from sklearn.metrics import mean_squared_error, r2_score
import matplotlib.pyplot as plt

# 加载空气质量数据集
data = fetch_openml(name='pm25', version=1, as_frame=True)
df = data.frame.dropna()
X = df.drop(columns=['target'])
y = df['target']

# 数据预处理
X_train, X_test, y_train, y_test = train_test_split(
    X, y, test_size=0.2, random_state=42
)

# 创建并训练随机森林模型
rf_reg = RandomForestRegressor(
    n_estimators=200,  # 树的数量
    max_depth=10,      # 单棵树的最大深度
    min_samples_leaf=5,  # 叶节点最小样本数
    random_state=42,
    n_jobs=-1  # 使用所有CPU核心
)
rf_reg.fit(X_train, y_train)

# 预测与评估
y_pred = rf_reg.predict(X_test)

print("\n随机森林回归结果:")

XGBRegressor(一般用于房价预测)

python 复制代码
# XGBoost回归案例 - 自行车租赁预测
import pandas as pd
from sklearn.datasets import fetch_openml
from sklearn.model_selection import train_test_split
from xgboost import XGBRegressor
from sklearn.metrics import mean_squared_error, r2_score
import matplotlib.pyplot as plt
from sklearn.preprocessing import LabelEncoder

# 加载自行车租赁数据集
data = fetch_openml(name='boston', version=1, as_frame=True)
df = data.frame
X = df.drop(columns=['MEDV'])
y = df['MEDV']

# 数据预处理(处理分类变量)
for col in X.select_dtypes(include=['object']).columns:
    le = LabelEncoder()
    X[col] = le.fit_transform(X[col])

# 数据分割
X_train, X_test, y_train, y_test = train_test_split(
    X, y, test_size=0.2, random_state=42
)

# 创建并训练XGBoost模型
xgb_reg = XGBRegressor(
    n_estimators=500,       # 树的数量
    learning_rate=0.05,     # 学习率
    max_depth=6,            # 树的最大深度
    subsample=0.8,          # 样本抽样比例
    colsample_bytree=0.8,   # 特征抽样比例
    random_state=42,
    n_jobs=-1               # 使用所有CPU核心
)
xgb_reg.fit(X_train, y_train, 
            eval_set=[(X_test, y_test)], 
            early_stopping_rounds=20,  # 早停防止过拟合
            verbose=False)

# 预测与评估
y_pred = xgb_reg.predict(X_test)

print("\nXGBoost回归结果:")

总结

黑箱:一般是处于利益考量或者有上亿个参数人类不可学习等因素的模型,比如XGBoostRegressor。

相关推荐
Captain_Data4 小时前
Python机器学习sklearn线性模型完整指南:LinearRegression/Ridge/Lasso详细代码注释
python·机器学习·数据分析·线性回归·sklearn
nihao5615 小时前
机器学习:阈值与混淆矩阵
人工智能·机器学习·矩阵
鱼骨不是鱼翅5 小时前
机器学习(1)-----基础概念
人工智能·机器学习
接着奏乐接着舞。6 小时前
机器学习经验总结整理
人工智能·机器学习
AEIC学术交流中心6 小时前
【快速EI检索 | ACM出版】第六届物联网与机器学习国际会议 (IoTML 2026)
物联网·机器学习
handsomestWei7 小时前
scikit-learn数据预处理模块
python·机器学习·scikit-learn
计算机毕业设计指导7 小时前
基于机器学习和深度学习的恶意WebURL检测系统实战详解
人工智能·深度学习·机器学习·网络安全
w_t_y_y7 小时前
机器学习常用的python包(二)工具箱scikit-learn
python·机器学习·scikit-learn
志栋智能8 小时前
超自动化巡检:实现运维“事前预防”的关键拼图
大数据·运维·网络·人工智能·机器学习·自动化
枫叶林FYL8 小时前
【自然语言处理 NLP】7.2 红队测试与对抗鲁棒性(Red Teaming & Adversarial Robustness)
人工智能·算法·机器学习