机器学习笔记(三)-模型评估与选择后半部分

1、性能度量

定义:衡量模型泛化能力的评价标准。

结果:不取决于算法和数据,取决于任务需求。

1.1 回归任务常用的性能度量:

均方误差

1.2 分类任务常用的性能度量:

1.2.1 错误率、精度:适用于二分类和多分类任务(关注错判的概率)

1.2.2 查准率、查全率 :关注正确的多少被选出,可以构建查准率-查全率曲线,简称P-R曲线,查准率=查全率时的点称为平衡点(BEP,目前有很多更简化的度量方法),当存在多个二分类混淆矩阵时,可以用宏查准率和宏查全率。

ps:混淆矩阵,根据分类情况划分,真正例、假正例、真反例、假反例。

1.2.3 ROC和AUC:

**ROC曲线:**综合考虑学习器在不同任务下的期望泛化性能好坏,或者说,一般性能的好坏(很多学习器为测试样本产生一个实值或者概率预测,并将其与阈值进行比较,确定正反类,实值或者概率预测决定学习器的泛化能力,据此,可以将样例排序,根据不同任务利用截断点划分样本)

**AUC:**在两条ROC曲线交叉情况下,利用AUC方法,即比较ROC曲线下的面积

1.2.4 代价敏感错误率和代价曲线:

真实任务存在非均等代价,不同错误造成的后果不同,且希望总体代价最小,代价曲线可以反应学习器的期望总体代价。

2、比较检验

我们想要比较的泛化性能,但是实验评估得到的是在测试集上的性能,两者未必相同,且测试集上的性能跟测试集本身的选择有很大的关系。

2.1 假设检验

2.2 交叉检验t检验

2.3 McNemar检验

2.4 Friedman和Nemenyi检验

2.5 偏差与方差

相关推荐
挖AI金矿6 分钟前
(六)文件与搜索 - 信息处理的正确姿势
人工智能·python·开源·个人开发·ai编程
龙侠九重天8 分钟前
OpenClaw 与 Hermes 有何异同?——从系统架构到用户体验的全面对比
人工智能·ai·系统架构·大模型·llm·openclaw·hermes
大流星12 分钟前
什么是生成式AI
人工智能
山林竹笋13 分钟前
人工智能领域开源TOP20项目(2026.04.20-2026.04.26)
人工智能·大模型·ai编程·技术趋势
m0_7393128715 分钟前
【自动驾驶】- MPC模型预测与控制算法(一)
人工智能·机器学习·自动驾驶
重庆若鱼文化创意23 分钟前
包装设计公司哪家好?价格差很多时,关键看材质、印刷工艺和实际包装成本
人工智能·python·材质
代码丰27 分钟前
Github高赞项目50K learn-claude-code 的学习笔记总结
笔记·学习·github
虚神界熊孩儿30 分钟前
告别云端依赖!OpenStation 大模型本地部署,携手 OpenCode 重构 AI 编程全流程
人工智能·aicoding·本地大模型部署·opencode
unicrom_深圳市由你创科技32 分钟前
为传统工业系统植入“智能体”:AI如何重构采购全流程
人工智能·重构
三品吉他手会点灯32 分钟前
C语言学习笔记 - 18.C编程预备计算机专业知识 - 什么是变量
c语言·开发语言·笔记·学习