回归与聚类——性能评估(二)

1分析

回归当中的数据大小不一致,是否会导致结果影响较大。所以需要做标准化处理。

  • 数据分割与标准化处理
  • 回归预测
  • 线性回归的算法效果评估

2回归性能评估

均方误差(Mean Squared Error)MSE)评价机制:

注:y^i为预测值,y-为真实值

  • sklearn.metrics.mean_squared_error(y_true, y_pred)
    • 均方误差回归损失
    • y_true:真实值
    • y_pred:预测值
    • return:浮点数结果

3代码

我们也可以尝试去修改学习率

c 复制代码
estimator =SGDRegressor(learning_rate='constant',eta0=0.001)

此时我们可以通过调参数,找到学习率效果更好的值。

4正规方程和梯度下降对比

  • 文字对比
梯度下降 正规方程
需要选择学习率 不需要
需要迭代求解 一次运算得出
特征数量较大可以使用 需要计算方程,时间复杂度高O(n3)
  • 选择:
    • 小规模数据:
      • LinearRegression(不能解决拟合问题)
      • 岭回归
    • 大规模数据:SGDRegressor

拓展-关于优化方法GD、SGD、SAG

1、GD 梯度下降,原始的梯度下降法需要计算所有样本的值才能够得出梯度,计算量大,所以后面才有会一系列的改进。

2、SGD随机梯度下降。它在一次迭代时只考虑一个训练样本。

  • SGD的优点是:
    • 高效
    • 容易实现
  • SGD的缺点是:
    • SGD需要许多超参数:比如正则项参数、选代数
    • SGD对于特征标准化是敏感的。

3、SAG随机平均梯度法,由于收敛的速度太慢,有人提出SAG等基于梯度下降的算法。

Scikit-learn:岭回归、逻辑回归等当中都会有SAG优化

相关推荐
z***y8622 小时前
Java数据挖掘开发
java·开发语言·数据挖掘
龙腾AI白云2 小时前
具身智能-普通LLM智能体与具身智能:从语言理解到自主行动
深度学习·数据挖掘
Learn Beyond Limits6 小时前
Correlation vs Cosine vs Euclidean Distance|相关性vs余弦相似度vs欧氏距离
人工智能·python·神经网络·机器学习·ai·数据挖掘
KKKlucifer15 小时前
2025 国产化数据分类分级工具实测:国产化适配、多模态识别与动态分级能力深度解析
人工智能·分类·数据挖掘
韩立学长16 小时前
【开题答辩实录分享】以《重庆旅游景点数据分析与可视化》为例进行答辩实录分享
数据挖掘·数据分析
qqxhb16 小时前
零基础MCP——第5章编程实战基础(网页、数据分析、调试与重构)
重构·数据挖掘·数据分析·多模态·mcp
京东零售技术20 小时前
【原理到实战】实验异质性分析
数据挖掘
龙腾AI白云1 天前
具身智能-高层任务规划(High-level Task Planning)
深度学习·数据挖掘
zenRRan1 天前
英伟达提出“思考用扩散,说话用自回归”:实现语言模型效率与质量的双赢!
人工智能·机器学习·语言模型·数据挖掘·回归
EAIReport1 天前
企业人力资源管理数据分析:离职因素与群体特征研究
人工智能·数据挖掘·数据分析