Kaggle机器学习初级的三种决策树

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档

文章目录


前言

决策树


一、决策树

单棵决策树 DecisionTreeRegressor

python 复制代码
# 决策树回归案例 - 波士顿房价预测
import pandas as pd
from sklearn.datasets import load_diabetes
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeRegressor, plot_tree
from sklearn.metrics import mean_squared_error, r2_score
import matplotlib.pyplot as plt

# 加载糖尿病数据集
diabetes = load_diabetes()
X = pd.DataFrame(diabetes.data, columns=diabetes.feature_names)
y = diabetes.target

# 数据预处理
X_train, X_test, y_train, y_test = train_test_split(
    X, y, test_size=0.2, random_state=42
)

# 创建并训练决策树模型
dt_reg = DecisionTreeRegressor(
    max_depth=3,  # 限制树深度防止过拟合
    min_samples_split=10,  # 节点最小样本数
    random_state=42
)
dt_reg.fit(X_train, y_train)

# 预测与评估
y_pred = dt_reg.predict(X_test)

print("决策树回归结果:")

随机森林RandomForestRegressor

python 复制代码
# 随机森林回归案例 - 空气质量预测
import pandas as pd
from sklearn.datasets import fetch_openml
from sklearn.model_selection import train_test_split
from sklearn.ensemble import RandomForestRegressor
from sklearn.metrics import mean_squared_error, r2_score
import matplotlib.pyplot as plt

# 加载空气质量数据集
data = fetch_openml(name='pm25', version=1, as_frame=True)
df = data.frame.dropna()
X = df.drop(columns=['target'])
y = df['target']

# 数据预处理
X_train, X_test, y_train, y_test = train_test_split(
    X, y, test_size=0.2, random_state=42
)

# 创建并训练随机森林模型
rf_reg = RandomForestRegressor(
    n_estimators=200,  # 树的数量
    max_depth=10,      # 单棵树的最大深度
    min_samples_leaf=5,  # 叶节点最小样本数
    random_state=42,
    n_jobs=-1  # 使用所有CPU核心
)
rf_reg.fit(X_train, y_train)

# 预测与评估
y_pred = rf_reg.predict(X_test)

print("\n随机森林回归结果:")

XGBRegressor(一般用于房价预测)

python 复制代码
# XGBoost回归案例 - 自行车租赁预测
import pandas as pd
from sklearn.datasets import fetch_openml
from sklearn.model_selection import train_test_split
from xgboost import XGBRegressor
from sklearn.metrics import mean_squared_error, r2_score
import matplotlib.pyplot as plt
from sklearn.preprocessing import LabelEncoder

# 加载自行车租赁数据集
data = fetch_openml(name='boston', version=1, as_frame=True)
df = data.frame
X = df.drop(columns=['MEDV'])
y = df['MEDV']

# 数据预处理(处理分类变量)
for col in X.select_dtypes(include=['object']).columns:
    le = LabelEncoder()
    X[col] = le.fit_transform(X[col])

# 数据分割
X_train, X_test, y_train, y_test = train_test_split(
    X, y, test_size=0.2, random_state=42
)

# 创建并训练XGBoost模型
xgb_reg = XGBRegressor(
    n_estimators=500,       # 树的数量
    learning_rate=0.05,     # 学习率
    max_depth=6,            # 树的最大深度
    subsample=0.8,          # 样本抽样比例
    colsample_bytree=0.8,   # 特征抽样比例
    random_state=42,
    n_jobs=-1               # 使用所有CPU核心
)
xgb_reg.fit(X_train, y_train, 
            eval_set=[(X_test, y_test)], 
            early_stopping_rounds=20,  # 早停防止过拟合
            verbose=False)

# 预测与评估
y_pred = xgb_reg.predict(X_test)

print("\nXGBoost回归结果:")

总结

黑箱:一般是处于利益考量或者有上亿个参数人类不可学习等因素的模型,比如XGBoostRegressor。

相关推荐
万行3 小时前
机器学习&第五章生成式生成器
人工智能·python·算法·机器学习
万行3 小时前
机器学习&第一章
人工智能·python·机器学习·flask·计算机组成原理
shangjian0073 小时前
AI大模型-机器学习-算法-线性回归
人工智能·算法·机器学习
清风吹过3 小时前
Birch聚类算法
论文阅读·深度学习·神经网络·机器学习
2301_800256114 小时前
B+树:数据库的基石 R树:空间数据的索引专家 四叉树:空间划分的网格大师
数据结构·数据库·b树·机器学习·postgresql·r-tree
Clarence Liu4 小时前
机器学习(5) 梯度下降
人工智能·机器学习
shangjian0074 小时前
AI大模型-机器学习-分类
人工智能·机器学习·分类
AI科技星5 小时前
光速飞行器动力学方程的第一性原理推导、验证与范式革命
数据结构·人工智能·线性代数·算法·机器学习·概率论
小鸡吃米…5 小时前
机器学习 - 亲和传播算法
python·机器学习·亲和传播
武子康6 小时前
大数据-210 如何在Scikit-Learn中实现逻辑回归及正则化详解(L1与L2)
大数据·后端·机器学习