机器学习常用的评价指标原理和代码

最近面试的时候,很多面试官问道了我项目中的一些评价指标的算法和原理,我觉得这确实也是一个很重要的内容,所以趁这个机会综合起来一块复习一下,在刷力扣的时候也不能忘记项目最常用的内容嘛。当然还包括一些深度学习的例如我项目中目标检测和nlp算法的我会在之后更新。

总体代码我已经放入代码库,大家自取哦,希望能给大家带来一些帮助。


一、回归任务评价指标

均方误差 (MSE)

原理:衡量预测值与真实值之间差异的平方的平均值,越小表示模型越准确。

公式:

根均方误差 (RMSE)

原理:RMSE是MSE的平方根,提供与数据原始单位相同的误差度量。

公式

平均绝对误差 (MAE)

原理:计算所有预测误差的绝对值并取平均,反映预测的准确性。

公式

R² (决定系数)

原理:表示模型解释的变异比例,值在0到1之间,越接近1表示模型效果越好。

公式

为残差平方和为总平方和

平均绝对百分比误差 (MAPE)

原理:计算误差的绝对值与真实值的比率的平均值,反映相对误差。

公式

最大误差 (Max Error)

原理:表示预测值与真实值之间的最大绝对误差,反映模型在最坏情况下的预测能力。

公式

二、分类任务评价指标

准确率 (Accuracy)

原理:正确预测的样本数量占总样本数量的比例。

公式

其中,TP为真阳性,TN为真阴性。

精确率 (Precision)

原理:预测为正类的样本中,真正为正类的比例。

公式

召回率 (Recall)

原理:实际为正类的样本中,正确预测为正类的比例。

公式

F1-score

原理:精确率和召回率的调和平均数,综合考虑模型的准确性和完整性。

公式

ROC曲线和AUC

原理:ROC曲线通过绘制真正率(TPR)和假正率(FPR)之间的关系来评估模型性能。AUC则表示曲线下面积,越大表示模型性能越好。

公式

TPR: (TPR(真正率)和召回率(Recall)在二分类任务中是同义词,通常可以互换使用。它们都表示模型在所有实际为正类的样本中,正确预测为正类的比例。)

FPR:

以上所有的机器学习相关的代码我都传到了我的一个仓库里,各位大佬有需求的话可以去我的仓库查看感谢感谢

相关推荐
云空1 小时前
《DeepSeek 网页/API 性能异常(DeepSeek Web/API Degraded Performance):网络安全日志》
运维·人工智能·web安全·网络安全·开源·网络攻击模型·安全威胁分析
AIGC大时代1 小时前
对比DeepSeek、ChatGPT和Kimi的学术写作关键词提取能力
论文阅读·人工智能·chatgpt·数据分析·prompt
爱喝奶茶的企鹅1 小时前
构建一个研发助手Agent:提升开发效率的实践
机器学习
山晨啊82 小时前
2025年美赛B题-结合Logistic阻滞增长模型和SIR传染病模型研究旅游可持续性-成品论文
人工智能·机器学习
一水鉴天2 小时前
为AI聊天工具添加一个知识系统 之77 详细设计之18 正则表达式 之5
人工智能·正则表达式
davenian3 小时前
DeepSeek-R1 论文. Reinforcement Learning 通过强化学习激励大型语言模型的推理能力
人工智能·深度学习·语言模型·deepseek
X.AI6663 小时前
【大模型LLM面试合集】大语言模型架构_llama系列模型
人工智能·语言模型·llama
CM莫问3 小时前
什么是门控循环单元?
人工智能·pytorch·python·rnn·深度学习·算法·gru
饮马长城窟3 小时前
Paddle和pytorch不可以同时引用
人工智能·pytorch·paddle
机器之心3 小时前
全面梳理200+篇前沿论文,视觉生成模型理解物理世界规律的通关密码,都在这篇综述里了!
人工智能