【第二章:机器学习与神经网络概述】04.回归算法理论与实践 -(4)模型评价与调整(Model Evaluation & Tuning)

第二章: 机器学习与神经网络概述

第四部分:回归算法理论与实践

第四节:模型评价与调整

内容:MSE、MAE、R-squared等指标,交叉验证与模型调参。

机器学习中的回归任务需要定量地评价模型性能,并通过系统性的调整手段优化模型表现。本节涵盖最常用的评价指标与调参方法。


一、常见回归性能指标

指标名称 描述 公式 说明
MSE 均方误差 Mean Squared Error 对异常值敏感
RMSE 均方根误差 Root MSE 与原始单位一致
MAE 平均绝对误差 Mean Absolute Error
决定系数 R-squared 表示模型解释方差的能力,越接近1越好

选择指标时应结合任务特点和数据分布。

例如:对异常值敏感任务应避免仅使用 MSE。

【机器学习】均方误差(MSE:Mean Squared Error)-CSDN博客

【机器学习】均方误差根(RMSE:Root Mean Squared Error)-CSDN博客

【机器学习】平均绝对误差(MAE:Mean Absolute Error)-CSDN博客

【机器学习】决定系数(R²:Coefficient of Determination)-CSDN博客


二、Python 示例代码(指标计算)

python 复制代码
from sklearn.metrics import mean_squared_error, mean_absolute_error, r2_score

# 真实值与预测值
y_true = [3.0, -0.5, 2.0, 7.0]
y_pred = [2.5, 0.0, 2.1, 7.8]

mse = mean_squared_error(y_true, y_pred)
mae = mean_absolute_error(y_true, y_pred)
r2 = r2_score(y_true, y_pred)

print(f"MSE: {mse:.3f}, MAE: {mae:.3f}, R^2: {r2:.3f}")

运行结果

python 复制代码
MSE: 0.287, MAE: 0.475, R^2: 0.961

三、交叉验证(Cross Validation)

交叉验证是模型调优中非常关键的过程,用于减少训练测试划分带来的偶然性。

1. K折交叉验证(K-Fold)

【漫话机器学习系列】268. K 折交叉验证(K-Fold Cross-Validation)_k折交叉验证-CSDN博客

  • 将数据划分为K份,轮流使用其中一份做验证,其余做训练。

  • 常见 K 值为 5 或 10。

python 复制代码
from sklearn.model_selection import cross_val_score
from sklearn.linear_model import LinearRegression
from sklearn.datasets import make_regression

X, y = make_regression(n_samples=100, n_features=2, noise=0.1)
model = LinearRegression()
scores = cross_val_score(model, X, y, cv=5, scoring='r2')
print("R2 average:", scores.mean())

运行结果

python 复制代码
R2 average: 0.9999984312849461
2. 留一交叉验证(LOOCV)

适合样本极少的场景,每次只留一个样本做测试。


四、模型调参方法(超参数优化)

1. 手动调参(grid试错)

适用于参数少、模型轻量情况。

2. 网格搜索(GridSearchCV)

【漫话机器学习系列】068.网格搜索(GridSearch)-CSDN博客

python 复制代码
from sklearn.model_selection import GridSearchCV
from sklearn.ensemble import RandomForestRegressor
from sklearn.datasets import make_regression

X, y = make_regression(n_samples=100, n_features=2, noise=0.1)
param_grid = {
    'n_estimators': [50, 100],
    'max_depth': [3, 5, None]
}

grid = GridSearchCV(RandomForestRegressor(), param_grid, cv=3, scoring='r2')
grid.fit(X, y)
print("Best Params:", grid.best_params_)

运行结果

python 复制代码
Best Params: {'max_depth': None, 'n_estimators': 50}
3. 随机搜索(RandomizedSearchCV)

【漫话机器学习系列】137.随机搜索(Randomized Search)-CSDN博客

在参数空间中随机采样,效率更高,适合大规模调参。


总结

分类 方法/指标 作用
性能评估 MSE、MAE、R2R^2 判断回归模型拟合效果
模型稳定性 K折交叉验证、LOOCV 检测过拟合、评估泛化能力
参数调整 GridSearchCV、RandomCV 寻找最优模型超参数

拓展内容

【漫话机器学习系列】174.模型选择(Model Selection)_模型池-CSDN博客

相关推荐
鲨莎分不晴1 小时前
强化学习第五课 —— A2C & A3C:并行化是如何杀死经验回放
网络·算法·机器学习
拉姆哥的小屋2 小时前
从混沌到秩序:条件扩散模型在图像转换中的哲学与技术革命
人工智能·算法·机器学习
JoannaJuanCV3 小时前
自动驾驶—CARLA仿真(6)vehicle_gallery demo
人工智能·机器学习·自动驾驶·carla
周杰伦_Jay3 小时前
【大模型数据标注】核心技术与优秀开源框架
人工智能·机器学习·eureka·开源·github
Jay20021113 小时前
【机器学习】33 强化学习 - 连续状态空间(DQN算法)
人工智能·算法·机器学习
裤裤兔4 小时前
医学影像深度学习知识点总结
人工智能·深度学习·机器学习·医学影像·医学图像
free-elcmacom4 小时前
机器学习进阶<8>PCA主成分分析
人工智能·python·机器学习·pca
Pyeako5 小时前
机器学习之KNN算法
人工智能·算法·机器学习
ytttr8737 小时前
matlab实现多标签K近邻(ML-KNN)算法
算法·机器学习·matlab
一招定胜负7 小时前
逻辑回归调优三板斧:参数调整、阈值设定、数据集平衡
算法·机器学习·逻辑回归