机器学习的指标评价

之前在学校的小发明制作中,在终期答辩的时候,虽然整个项目的流程都答的很流畅。

在老师提问的过程中,当老师问我recall,precision,accuracy等指标是如何计算的,又能够表示模型的哪方面指标做得好。我听到这个问题的时候,就有点懵,因为我只知道,这些指标越接近1就代表模型越好,其他具体指哪方面好,我还是不知道,于是乎,在答辩完的下午,我就赶紧到图书馆,想把这一篇博客整理出来。

1,accuracy 准确率

准确率是衡量模型在所有样本中

(TP+TN)/(TP + FP + TN + FN)

通俗: 所有样本中预测正确的比例

2,精确率

精确率指的是模型正确预测为正例的样本与所有被分类为正例的比例(这个正分裂是模型判断的)

TP/(TP+FP)

通俗: 你认为正确的样本中预测正确的比例

3,召回率

模型成功预测出的正例样本占实际为正样本的比例

TP/(TP+FN)

正样本中有多少是被真正找出来的

4,F1 score

指的是精确率和召回率的调回平均值,综合考虑了模型的准确性和覆盖率。适合于不平衡类别的情况

F1 score = 2*(精确率*召回率)/(精确率+召回率)

TP (true positive) 真正例 即模型正确将正比例预测为正例的比例

FP(false positive)假正例 即模型错误地将负例预测为正例的比例

TN(true negative)真负例 即模型正确地将负例预测为负例的比例

FN(false negative)假负例 即模型错误地将正例判断为负例的比例

在混淆矩阵中具象化表示

相关推荐
冬奇Lab几秒前
RAG 系列(八):RAG 评估体系——用数据说话
人工智能·llm
landyjzlai1 小时前
蓝迪哥玩转Ai(8)---端侧AI:RK3588 端侧大语言模型(LLM)开发实战指南
人工智能·python
ZhengEnCi3 小时前
05-自注意力机制详解 🧠
人工智能·pytorch·深度学习
前端程序媛-Tian3 小时前
前端 AI 提效实战:从 0 到 1 打造团队专属 AI 代码评审工具
前端·人工智能·ai
weixin_417197053 小时前
DeepSeek V4绑定华为:一场飞行中换引擎的国产算力革命
人工智能·华为
翼龙云_cloud4 小时前
阿里云代理商:阿里云深度适配DeepSeek V4让中小企业 AI零门槛上云
人工智能·阿里云·云计算·ai智能体·deepseek v4
MATLAB代码顾问4 小时前
DeepSeek R1:国产开源推理大模型的崛起与实践
人工智能
__Wedream__4 小时前
ICMR2024 | 当对比学习遇上知识蒸馏:轻量超分模型压缩新框架
人工智能·深度学习·计算机视觉·知识蒸馏·超分辨率重建·对比学习