【Python机器学习】模型评估与改进——分层k折交叉验证

在k折分层验证中,将数据集划分为k折时,从数据的前k分之一开始划分,这可能并不总是一个好主意,例如iris数据集中:

python 复制代码
from sklearn.datasets import load_iris

iris=load_iris()
print('Iris labels:\n:{}'.format(iris.target))

可以看到,数据的前1/3是类别0,中间1/3是类别1,后1/3是类别2。如果在这个数据集上进行3折交叉验证,第一折将只包含类别0,所以在数据的第一次划分中,测试集将只包含类别0,而训练集只包含类别1和2。由于在3次划分中训练集和测试集中的类别都不一样,所以这个数据集上的3折交叉验证精度为0,这没什么用,因为我们在iris上可以得到比0%好得多的精度。

因为简单的k折策略在这里失效了,所以scikit-learn在分类问题中不适用这种策略,而是使用分层k折交叉验证。

在分层交叉验证中,我们划分数据,使每个折中类别之间的比例与整个数据集中的比例相同,比如:

python 复制代码
mglearn.plots.plot_stratified_cross_validation()
plt.show()

举个例子,如果按照90%的样本属于类别A而10%的样本属于类别B,那么分层交叉验证可以确保,在每个折中90%的样本属于类别A而10%的样本属于类别B。

使用分层k折交叉验证而不是k折交叉验证来评估一个分类器,这通常是一个好主意,因为它可以对泛化性能做出更可靠的评估。在只有10%的样本属于类别B的情况下,如果使用标准k折交叉验证,很可能某个折中只包含类别A的样本。利用这个折作为测试集的话,无法给出分类器整体性能的信息。

对于回归问题,scikit-learn默认使用标准k折交叉验证。也可以尝试让每个折表示回归目标的不同取值,但这并不是一种常用的策略。

相关推荐
编码浪子7 分钟前
趣味学习Rust基础篇(用Rust做一个猜数字游戏)
学习·rust
Haooog13 分钟前
替换数字(字符串算法)
算法
hansang_IR13 分钟前
【算法速成课1 | 题解】洛谷P3366 【模板】最小生成树 MST(Prim & Kruskal)
c++·笔记·算法·题解·最小生成树·kruskal·prim
一起努力啊~15 分钟前
算法题打卡力扣第15题:三数之和(mid)
算法·leetcode·职场和发展
IT_陈寒16 分钟前
Vite 3.0性能飞跃:5个优化技巧让你的构建速度提升200%
前端·人工智能·后端
原野风霜32418 分钟前
智能驾驶机器学习知识总结
机器学习·汽车电子
快去睡觉~19 分钟前
力扣18:四数之和
算法·leetcode·深度优先
INS_KF22 分钟前
【知识杂记】卡尔曼滤波及其变种,从理论精要到工程实践深入解析
经验分享·笔记·学习
cdg==吃蛋糕27 分钟前
获取小红书某个用户列表
python
lsrsyx33 分钟前
科技赋能生态,智慧守护农林,汇岭生态开启农林产业现代化新篇章
人工智能