【第二章:机器学习与神经网络概述】04.回归算法理论与实践 -(4)模型评价与调整(Model Evaluation & Tuning)

第二章: 机器学习与神经网络概述

第四部分:回归算法理论与实践

第四节:模型评价与调整

内容:MSE、MAE、R-squared等指标,交叉验证与模型调参。

机器学习中的回归任务需要定量地评价模型性能,并通过系统性的调整手段优化模型表现。本节涵盖最常用的评价指标与调参方法。


一、常见回归性能指标

指标名称 描述 公式 说明
MSE 均方误差 Mean Squared Error 对异常值敏感
RMSE 均方根误差 Root MSE 与原始单位一致
MAE 平均绝对误差 Mean Absolute Error
决定系数 R-squared 表示模型解释方差的能力,越接近1越好

选择指标时应结合任务特点和数据分布。

例如:对异常值敏感任务应避免仅使用 MSE。

【机器学习】均方误差(MSE:Mean Squared Error)-CSDN博客

【机器学习】均方误差根(RMSE:Root Mean Squared Error)-CSDN博客

【机器学习】平均绝对误差(MAE:Mean Absolute Error)-CSDN博客

【机器学习】决定系数(R²:Coefficient of Determination)-CSDN博客


二、Python 示例代码(指标计算)

python 复制代码
from sklearn.metrics import mean_squared_error, mean_absolute_error, r2_score

# 真实值与预测值
y_true = [3.0, -0.5, 2.0, 7.0]
y_pred = [2.5, 0.0, 2.1, 7.8]

mse = mean_squared_error(y_true, y_pred)
mae = mean_absolute_error(y_true, y_pred)
r2 = r2_score(y_true, y_pred)

print(f"MSE: {mse:.3f}, MAE: {mae:.3f}, R^2: {r2:.3f}")

运行结果

python 复制代码
MSE: 0.287, MAE: 0.475, R^2: 0.961

三、交叉验证(Cross Validation)

交叉验证是模型调优中非常关键的过程,用于减少训练测试划分带来的偶然性。

1. K折交叉验证(K-Fold)

【漫话机器学习系列】268. K 折交叉验证(K-Fold Cross-Validation)_k折交叉验证-CSDN博客

  • 将数据划分为K份,轮流使用其中一份做验证,其余做训练。

  • 常见 K 值为 5 或 10。

python 复制代码
from sklearn.model_selection import cross_val_score
from sklearn.linear_model import LinearRegression
from sklearn.datasets import make_regression

X, y = make_regression(n_samples=100, n_features=2, noise=0.1)
model = LinearRegression()
scores = cross_val_score(model, X, y, cv=5, scoring='r2')
print("R2 average:", scores.mean())

运行结果

python 复制代码
R2 average: 0.9999984312849461
2. 留一交叉验证(LOOCV)

适合样本极少的场景,每次只留一个样本做测试。


四、模型调参方法(超参数优化)

1. 手动调参(grid试错)

适用于参数少、模型轻量情况。

2. 网格搜索(GridSearchCV)

【漫话机器学习系列】068.网格搜索(GridSearch)-CSDN博客

python 复制代码
from sklearn.model_selection import GridSearchCV
from sklearn.ensemble import RandomForestRegressor
from sklearn.datasets import make_regression

X, y = make_regression(n_samples=100, n_features=2, noise=0.1)
param_grid = {
    'n_estimators': [50, 100],
    'max_depth': [3, 5, None]
}

grid = GridSearchCV(RandomForestRegressor(), param_grid, cv=3, scoring='r2')
grid.fit(X, y)
print("Best Params:", grid.best_params_)

运行结果

python 复制代码
Best Params: {'max_depth': None, 'n_estimators': 50}
3. 随机搜索(RandomizedSearchCV)

【漫话机器学习系列】137.随机搜索(Randomized Search)-CSDN博客

在参数空间中随机采样,效率更高,适合大规模调参。


总结

分类 方法/指标 作用
性能评估 MSE、MAE、R2R^2 判断回归模型拟合效果
模型稳定性 K折交叉验证、LOOCV 检测过拟合、评估泛化能力
参数调整 GridSearchCV、RandomCV 寻找最优模型超参数

拓展内容

【漫话机器学习系列】174.模型选择(Model Selection)_模型池-CSDN博客

相关推荐
非门由也19 小时前
《sklearn机器学习——回归指标1》
机器学习·回归·sklearn
拓端研究室19 小时前
Python用PSO优化SVM与RBFN在自动驾驶系统仿真、手写数字分类应用研究
人工智能·机器学习
小白狮ww21 小时前
RStudio 教程:以抑郁量表测评数据分析为例
人工智能·算法·机器学习
倔强的石头1061 天前
卷积神经网络(CNN):从图像识别原理到实战应用的深度解析
人工智能·神经网络·cnn
GEO科技权威资讯1 天前
生成对抗网络 (GAN):理解其原理与创作能力
人工智能·神经网络·生成对抗网络
空白到白1 天前
决策树-面试题
算法·决策树·机器学习
java1234_小锋1 天前
Scikit-learn Python机器学习 - 特征预处理 - 归一化 (Normalization):MinMaxScaler
python·机器学习·scikit-learn
西猫雷婶1 天前
scikit-learn/sklearn学习|广义线性回归损失函数的基本表达式
深度学习·神经网络·学习·机器学习·线性回归·scikit-learn·概率论
nju_spy1 天前
李沐深度学习论文精读(二)Transformer + GAN
人工智能·深度学习·机器学习·transformer·gan·注意力机制·南京大学
空白到白1 天前
机器学习-集成学习
人工智能·机器学习·集成学习