机器学习笔记(三)-模型评估与选择后半部分

1、性能度量

定义:衡量模型泛化能力的评价标准。

结果:不取决于算法和数据,取决于任务需求。

1.1 回归任务常用的性能度量:

均方误差

1.2 分类任务常用的性能度量:

1.2.1 错误率、精度:适用于二分类和多分类任务(关注错判的概率)

1.2.2 查准率、查全率 :关注正确的多少被选出,可以构建查准率-查全率曲线,简称P-R曲线,查准率=查全率时的点称为平衡点(BEP,目前有很多更简化的度量方法),当存在多个二分类混淆矩阵时,可以用宏查准率和宏查全率。

ps:混淆矩阵,根据分类情况划分,真正例、假正例、真反例、假反例。

1.2.3 ROC和AUC:

**ROC曲线:**综合考虑学习器在不同任务下的期望泛化性能好坏,或者说,一般性能的好坏(很多学习器为测试样本产生一个实值或者概率预测,并将其与阈值进行比较,确定正反类,实值或者概率预测决定学习器的泛化能力,据此,可以将样例排序,根据不同任务利用截断点划分样本)

**AUC:**在两条ROC曲线交叉情况下,利用AUC方法,即比较ROC曲线下的面积

1.2.4 代价敏感错误率和代价曲线:

真实任务存在非均等代价,不同错误造成的后果不同,且希望总体代价最小,代价曲线可以反应学习器的期望总体代价。

2、比较检验

我们想要比较的泛化性能,但是实验评估得到的是在测试集上的性能,两者未必相同,且测试集上的性能跟测试集本身的选择有很大的关系。

2.1 假设检验

2.2 交叉检验t检验

2.3 McNemar检验

2.4 Friedman和Nemenyi检验

2.5 偏差与方差

相关推荐
刘佬GEO2 分钟前
线下医美机构做 GEO 的实际价值:从策略到效果拆解
网络·人工智能·搜索引擎·ai·语言模型
前端摸鱼匠3 分钟前
【AI大模型春招面试题26】大模型的“上下文窗口”(Context Window)是什么?长度对模型性能的影响?
人工智能·ai·面试·大模型·求职招聘
YYYing.5 分钟前
【C++项目之高并发内存池 (二)】整体框架设计与ThreadCache的初步实现
笔记·高并发·线程池·c/c++
源码之家5 分钟前
计算机毕业设计:Python股票智能分析预测平台 Flask框架 数据分析 可视化 机器学习 随机森林 大数据(建议收藏)✅
python·机器学习·数据分析·django·flask·课程设计
愚昧之山绝望之谷开悟之坡7 分钟前
hermes里面的skill和mcp大白话介绍
笔记
ZWZhangYu7 分钟前
MCP 实战:从协议原理到 Java 自定义工具服务落地
java·开发语言·人工智能
IT_陈寒7 分钟前
为什么我的JavaScript变量老是不听使唤?
前端·人工智能·后端
Flittly7 分钟前
【SpringSecurity新手村系列】(5)RBAC角色权限与账户状态校验
java·spring boot·笔记·安全·spring·ai
草莓熊Lotso9 分钟前
从 LLM 底层原理到 LangChain 全链路打通:大模型应用开发新征程
linux·运维·服务器·人工智能·langchain
ai产品老杨10 分钟前
【深度架构解析】高并发 AI 视频管理平台:兼容 GB28181/RTSP,支持 X86/ARM+GPU/NPU 异构部署与源码交付
人工智能·架构·音视频