回归与聚类——性能评估(二)

1分析

回归当中的数据大小不一致,是否会导致结果影响较大。所以需要做标准化处理。

  • 数据分割与标准化处理
  • 回归预测
  • 线性回归的算法效果评估

2回归性能评估

均方误差(Mean Squared Error)MSE)评价机制:

注:y^i为预测值,y-为真实值

  • sklearn.metrics.mean_squared_error(y_true, y_pred)
    • 均方误差回归损失
    • y_true:真实值
    • y_pred:预测值
    • return:浮点数结果

3代码

我们也可以尝试去修改学习率

c 复制代码
estimator =SGDRegressor(learning_rate='constant',eta0=0.001)

此时我们可以通过调参数,找到学习率效果更好的值。

4正规方程和梯度下降对比

  • 文字对比
梯度下降 正规方程
需要选择学习率 不需要
需要迭代求解 一次运算得出
特征数量较大可以使用 需要计算方程,时间复杂度高O(n3)
  • 选择:
    • 小规模数据:
      • LinearRegression(不能解决拟合问题)
      • 岭回归
    • 大规模数据:SGDRegressor

拓展-关于优化方法GD、SGD、SAG

1、GD 梯度下降,原始的梯度下降法需要计算所有样本的值才能够得出梯度,计算量大,所以后面才有会一系列的改进。

2、SGD随机梯度下降。它在一次迭代时只考虑一个训练样本。

  • SGD的优点是:
    • 高效
    • 容易实现
  • SGD的缺点是:
    • SGD需要许多超参数:比如正则项参数、选代数
    • SGD对于特征标准化是敏感的。

3、SAG随机平均梯度法,由于收敛的速度太慢,有人提出SAG等基于梯度下降的算法。

Scikit-learn:岭回归、逻辑回归等当中都会有SAG优化

相关推荐
paperxie_xiexuo3 小时前
从研究问题到分析初稿:深度解析PaperXie AI科研工具中数据分析模块在学术写作场景下的辅助逻辑与技术实现路径
人工智能·数据挖掘·数据分析
Chef_Chen5 小时前
数据科学每日总结--Day26--数据挖掘
人工智能·数据挖掘
Microsoft Word7 小时前
商务数据分析与可视化
数据挖掘·数据分析
算法与编程之美16 小时前
提升minist的准确率并探索分类指标Precision,Recall,F1-Score和Accuracy
人工智能·算法·机器学习·分类·数据挖掘
E***q53918 小时前
JavaScript数据挖掘开发
开发语言·javascript·数据挖掘
AI浩21 小时前
回归基础:让去噪生成模型真正去噪
人工智能·数据挖掘·回归
m0_462605221 天前
第N6周:中文文本分类-Pytorch实现
pytorch·分类·数据挖掘
z***y8621 天前
Java数据挖掘开发
java·开发语言·数据挖掘
龙腾AI白云1 天前
具身智能-普通LLM智能体与具身智能:从语言理解到自主行动
深度学习·数据挖掘
Learn Beyond Limits1 天前
Correlation vs Cosine vs Euclidean Distance|相关性vs余弦相似度vs欧氏距离
人工智能·python·神经网络·机器学习·ai·数据挖掘