sklearn—roc_curve,roc_auc_score

python 复制代码
import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import fetch_openml
from sklearn.linear_model import SGDClassifier
from sklearn.metrics import roc_curve
from sklearn.model_selection import cross_val_predict
from sklearn.metrics import roc_auc_score

# 加载数据
mnist = fetch_openml('mnist_784', version=1, parser='auto')
X, y = mnist['data'], mnist['target']
X = np.array(X)
y = np.array(y)

# 划分训练集和测试集
X_train, X_test, y_train, y_test = X[:60000], X[60000:], y[:60000], y[60000:]

# 打乱训练集
shuffle_index = np.random.permutation(60000)
X_train, y_train = X_train[shuffle_index], y_train[shuffle_index]

# 创建二元标签
y_train_5 = (y_train == '5')
y_test_5 = (y_test == '5')

# 训练模型
clf = SGDClassifier(random_state=42)
clf.fit(X_train, y_train_5)

# 使用交叉验证预测获取决策分数
y_scores = cross_val_predict(clf, X_train, y_train_5, method="decision_function")

# 计算ROC曲线
fpr, tpr, thresholds = roc_curve(y_train_5, y_scores)

# 绘制ROC曲线
plt.plot(fpr, tpr, label="ROC Curve")
plt.xlabel('False Positive Rate')
plt.ylabel('True Positive Rate')
plt.title('ROC Curve')
plt.legend(loc="lower right")
plt.show()

# 计算ROC曲线下面积auc
auc = roc_auc_score(y_train_5, y_scores)
print(auc)

1. 使用交叉验证预测获取决策分数

y_scores = cross_val_predict(clf, X_train, y_train_5, method="decision_function")

获取模型对每个样本的决策分数,这些分数随后被用于计算ROC曲线和AUC分数,以评估模型对于识别数字"5"的性能。

在分类任务中,很多模型不仅可以输出预测类别,还可以输出一个决策分数或概率估计,表示模型对每个类别的置信度。对于二分类问题,SGDClassifier 默认的决策函数返回的是样本属于正类的分数。通过指定 method="decision_function" ,cross_val_predict 将为每个输入样本返回这个决策分数,而非直接的分类预测(正类或负类)。

2. 计算ROC曲线

fpr, tpr, thresholds = roc_curve(y_train_5, y_scores)

计算 ROC 曲线的各个点,并返回假正例率(False Positive Rate, FPR)、真正例率(True Positive Rate, TPR)以及用于生成这些率的决策阈值(Thresholds)。

3. 计算ROC曲线下面积auc

auc = roc_auc_score(y_train_5, y_scores)

4. thresholds、auc

阈值(Thresholds)

在分类任务中,模型通常输出一个连续的决策分数或概率估计来表示样本属于某个类别的置信度。通过设置不同的阈值,这些连续的分数会被转换为二元的分类结果(例如,正类或负类)。调整阈值会影响到模型的TPR和FPR,进而影响模型的性能表现。

曲线下面积(Area Under the Curve, AUC)

AUC是ROC曲线下的面积,提供了一个量化模型在所有可能的分类阈值下性能的方式。AUC的值介于0和1之间,一个完美的分类器的AUC为1,而一个完全随机的分类器的AUC为0.5。AUC越接近1,表示模型的性能越好。

5. 运行结果


相关推荐
玦尘、14 分钟前
《统计学习方法》第5章——决策树(上)【学习笔记】
决策树·机器学习
薛定e的猫咪1 小时前
【论文精读】ICLR 2023 --- 作为离线强化学习强表达能力策略类的扩散策略
人工智能·深度学习·机器学习·stable diffusion
韩曙亮5 小时前
【人工智能】AI 人工智能 技术 学习路径分析 ① ( Python语言 -> 微积分 / 概率论 / 线性代数 -> 机器学习 )
人工智能·python·学习·数学·机器学习·ai·微积分
vvoennvv7 小时前
【Python TensorFlow】 TCN-GRU时间序列卷积门控循环神经网络时序预测算法(附代码)
python·rnn·神经网络·机器学习·gru·tensorflow·tcn
玦尘、7 小时前
《统计学习方法》第4章——朴素贝叶斯法【学习笔记】
笔记·机器学习
网安INF8 小时前
机器学习入门:深入理解线性回归
人工智能·机器学习·线性回归
程序猿追8 小时前
PyTorch算子模板库技术解读:无缝衔接PyTorch模型与Ascend硬件的桥梁
人工智能·pytorch·python·深度学习·机器学习
陈天伟教授8 小时前
机器学习方法(4)强化学习(试错学习)
人工智能·学习·机器学习
大千AI助手11 小时前
ROUGE-SU4:文本摘要评估的跳连智慧
人工智能·机器学习·nlp·rouge·文本摘要·大千ai助手·rouge-su4
春日见15 小时前
丝滑快速拓展随机树 S-RRT(Smoothly RRT)算法核心原理与完整流程
人工智能·算法·机器学习·路径规划算法·s-rrt