sklearn基础--『分类模型评估』之损失分析

分类模型 评估中,通过各类损失(loss)函数的分析,可以衡量模型预测结果与真实值之间的差异。

不同的损失函数可用于不同类型的分类问题,以便更好地评估模型的性能。

本篇将介绍分类模型评估中常用的几种损失计算方法。

1. 汉明损失

Hamming loss汉明损失 )是一种衡量分类模型预测错误率的指标。

它直接衡量了模型预测错误的样本比例,因此更直观地反映出模型的预测精度,

而且,它对不平衡数据比较敏感,也适用于多分类的问题,不仅限于二分类问题。

1.1. 计算公式

<math xmlns="http://www.w3.org/1998/Math/MathML"> L ( y , y ^ ) = 1 n ∗ m ∑ i = 0 n − 1 ∑ j = 0 m − 1 1 ( y ^ i , j ≠ y i , j ) L(y, \hat{y}) = \frac{1}{n * m} \sum_{i=0}^{n-1} \sum_{j=0}^{m - 1} 1(\hat{y}{i,j} \not= y{i,j}) </math>L(y,y^)=n∗m1∑i=0n−1∑j=0m−11(y^i,j=yi,j)

其中, <math xmlns="http://www.w3.org/1998/Math/MathML"> n n </math>n是样本数量, <math xmlns="http://www.w3.org/1998/Math/MathML"> m m </math>m是标签数量, <math xmlns="http://www.w3.org/1998/Math/MathML"> y i , j y_{i,j} </math>yi,j是样本 <math xmlns="http://www.w3.org/1998/Math/MathML"> i i </math>i的第 <math xmlns="http://www.w3.org/1998/Math/MathML"> j j </math>j个标签的真实值, <math xmlns="http://www.w3.org/1998/Math/MathML"> y ^ i , j \hat{y}_{i,j} </math>y^i,j是对应的预测值,
<math xmlns="http://www.w3.org/1998/Math/MathML"> 1 ( x ) 1(x) </math>1(x) 是指示函数。

1.2. 使用示例

python 复制代码
from sklearn.metrics import hamming_loss
import numpy as np

n = 100
y_true = np.random.randint(1, 10, n)
y_pred = np.random.randint(1, 10, n)

s = hamming_loss(y_true, y_pred)
print("hamming loss:{}".format(s))

# 运行结果
hamming loss:0.8

2. 铰链损失

Hinge loss铰链损失 )常用于"最大间隔"分类,其最著名的应用是作为支持向量机(SVM)的目标函数。
Hinge loss主要用于二分类问题,并且通常与特定的算法(如SVM)结合使用。

2.1. 计算公式

<math xmlns="http://www.w3.org/1998/Math/MathML"> L ( y , w ) = 1 n ∑ i = 0 n − 1 max ⁡ { 1 − w i y i , 0 } L(y, w) = \frac{1}{n} \sum_{i=0}^{n-1} \max\left\{1 - w_i y_i, 0\right\} </math>L(y,w)=n1∑i=0n−1max{1−wiyi,0}

其中, <math xmlns="http://www.w3.org/1998/Math/MathML"> n n </math>n是样本数量, <math xmlns="http://www.w3.org/1998/Math/MathML"> y i y_i </math>yi是真实值, <math xmlns="http://www.w3.org/1998/Math/MathML"> w i w_i </math>wi是相应的预测决策(由 decision_function 方法输出)。

2.2. 使用示例

python 复制代码
from sklearn.metrics import hinge_loss
from sklearn.svm import LinearSVC
from sklearn.model_selection import train_test_split
import numpy as np

n = 100
X = np.random.randint(0, 2, size=(n, 1))
y = np.random.randint(0, 2, n)

X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.1)

reg = LinearSVC(dual="auto")
reg.fit(X_train, y_train)

y_pred_decision = reg.decision_function(X_test)

s = hinge_loss(y_test, y_pred_decision)
print("hinge loss:{}".format(s))

# 运行结果
hinge loss:1.0136184446302712

上面的示例中,首先构建一个支持向量机的训练模型和随机的样本数据。

最后在测试集上计算hinge loss

3. 对数损失

对数损失log loss)通过考虑模型预测的概率与实际标签的对数误差 来评估模型的性能。

它特别关注模型对于每个样本的预测概率的准确性,对于错误的分类,Log loss会给予较大的惩罚。

对数损失的值越小,表示模型的预测概率越接近实际标签,模型的性能越好。

3.1. 计算公式

<math xmlns="http://www.w3.org/1998/Math/MathML"> L L = − 1 N ∑ i = 0 N − 1 ∑ k = 0 K − 1 y i , k log ⁡ p i , k LL = - \frac{1}{N} \sum_{i=0}^{N-1} \sum_{k=0}^{K-1} y_{i,k} \log p_{i,k} </math>LL=−N1∑i=0N−1∑k=0K−1yi,klogpi,k

其中, <math xmlns="http://www.w3.org/1998/Math/MathML"> N N </math>N是样本数量, <math xmlns="http://www.w3.org/1998/Math/MathML"> K K </math>K是分类标签的数量,
<math xmlns="http://www.w3.org/1998/Math/MathML"> y i , k y_{i,k} </math>yi,k是第 <math xmlns="http://www.w3.org/1998/Math/MathML"> i i </math>i个样本在标签 <math xmlns="http://www.w3.org/1998/Math/MathML"> k k </math>k上的真实值, <math xmlns="http://www.w3.org/1998/Math/MathML"> p i , k p_{i,k} </math>pi,k是对应的概率估计。

3.2. 使用示例

python 复制代码
from sklearn.metrics import log_loss
import numpy as np

n = 100
k = 10
y_true = np.random.randint(0, k, n)
y_prob = np.random.rand(n, k)

# 这一步转换后,
# y_prob 每一行的和都为1
for i in range(len(y_prob)):
    y_prob[i, :] = y_prob[i, :] / np.sum(y_prob[i, :])


s = log_loss(y_true, y_prob)
print("log loss:{}".format(s))

# 运行结果
log loss:2.6982702715125466

上面的示例中, <math xmlns="http://www.w3.org/1998/Math/MathML"> n n </math>n是样本数量, <math xmlns="http://www.w3.org/1998/Math/MathML"> k k </math>k是标签数量。

4. 零一损失

零一损失zero-one loss)非常直观,直接对应着分类判断错误的个数,能很清晰地反映出模型预测错误的比例。

它计算简单,易于理解和实现,对于二分类问题特别直观,但是对于非凸性质不太适用。

4.1. 计算公式

<math xmlns="http://www.w3.org/1998/Math/MathML"> L ( y , y ^ ) = 1 n ∑ i = 0 n − 1 1 ( y ^ i ≠ y i ) L(y, \hat{y}) = \frac{1}{n} \sum_{i=0}^{n-1} 1(\hat{y}_i \not= y_i) </math>L(y,y^)=n1∑i=0n−11(y^i=yi)

其中, <math xmlns="http://www.w3.org/1998/Math/MathML"> n n </math>n是样本数量, <math xmlns="http://www.w3.org/1998/Math/MathML"> y i y_i </math>yi是真实值, <math xmlns="http://www.w3.org/1998/Math/MathML"> y i ^ \hat{y_i} </math>yi^是预测值,
<math xmlns="http://www.w3.org/1998/Math/MathML"> 1 ( x ) 1(x) </math>1(x) 是指示函数。

4.2. 使用示例

python 复制代码
from sklearn.metrics import zero_one_loss
import numpy as np

n = 100
y_true = np.random.randint(1, 10, n)
y_pred = np.random.randint(1, 10, n)

s1 = zero_one_loss(y_true, y_pred)
s2 = zero_one_loss(y_true, y_pred, normalize=False)
print("zero-one loss比率:{}\nzero-one loss数量:{}".format(s1, s2))

# 运行结果
zero-one loss比率:0.89
zero-one loss数量:89

5. Brier 分数损失

Brier 分数损失Brier score loss)关注模型预测的概率与实际结果之间的差异。

与只关注预测类别的其他指标不同,它衡量了预测概率的可靠性;

与一些仅适用于二分类问题的评估指标相比,Brier score loss可以应用于多类别分类问题。

它的数值越小,表示模型的概率预测越准确,具有很好的解释性。

5.1. 计算公式

<math xmlns="http://www.w3.org/1998/Math/MathML"> B S = 1 n ∑ i = 0 n − 1 ( y i − p i ) 2 BS = \frac{1}{n} \sum_{i=0}^{n - 1}(y_i - p_i)^2 </math>BS=n1∑i=0n−1(yi−pi)2

其中, <math xmlns="http://www.w3.org/1998/Math/MathML"> n n </math>n是样本数量, <math xmlns="http://www.w3.org/1998/Math/MathML"> y i y_i </math>yi是真实值, <math xmlns="http://www.w3.org/1998/Math/MathML"> p i p_i </math>pi是预测概率估计的均方误差。

5.2. 使用示例

python 复制代码
from sklearn.metrics import brier_score_loss
import numpy as np

n = 100
y_true = np.random.randint(0, 2, n)
y_prob = np.random.rand(n)

s = brier_score_loss(y_true, y_prob)
print("brier score loss:{}".format(s))

# 运行结果
brier score loss:0.3141953858083935

示例中计算损失用的模拟数据中,y_true表示真实值,y_prob表示预测概率的均方误差。

6. 总结

本篇归纳总结了分类模型 中关于损失函数的一些使用方式:

  • 汉明损失,Hamming loss
  • 铰链损失,Hinge loss
  • 对数损失,log loss
  • 零一损失,zero one loss
  • Brier 分数损失,Brier score loss

关于分类模型的内容可参考之前的文章:

  1. sklearn基础--『监督学习』之K-近邻分类
  2. sklearn基础--『监督学习』之逻辑回归分类
  3. sklearn基础--『监督学习』之贝叶斯分类
  4. sklearn基础--『监督学习』之决策树分类
  5. sklearn基础--『监督学习』之随机森林分类
  6. sklearn基础--『监督学习』之支持向量机分类
相关推荐
萱仔学习自我记录20 分钟前
微调大语言模型——超详细步骤
人工智能·深度学习·机器学习
大神薯条老师44 分钟前
Python从入门到高手5.1节-Python简单数据类型
爬虫·python·深度学习·机器学习·数据分析
zmjia1112 小时前
全流程Python编程、机器学习与深度学习实践技术应用
python·深度学习·机器学习
龙的爹23333 小时前
论文翻译 | Generated Knowledge Prompting for Commonsense Reasoning
人工智能·gpt·机器学习·语言模型·自然语言处理·nlp·prompt
_.Switch3 小时前
Python机器学习:自然语言处理、计算机视觉与强化学习
python·机器学习·计算机视觉·自然语言处理·架构·tensorflow·scikit-learn
这可就有点麻烦了3 小时前
强化学习笔记之【TD3算法】
linux·笔记·算法·机器学习
百锦再3 小时前
自动驾驶的技术实现及原理
人工智能·机器学习·自动驾驶
HyperAI超神经5 小时前
Meta 首个多模态大模型一键启动!首个多针刺绣数据集上线,含超 30k 张图片
大数据·人工智能·深度学习·机器学习·语言模型·大模型·数据集
sp_fyf_20245 小时前
计算机前沿技术-人工智能算法-大语言模型-最新研究进展-2024-10-03
人工智能·算法·机器学习·计算机视觉·语言模型·自然语言处理
学步_技术5 小时前
自动驾驶系列—线控悬架技术:自动驾驶背后的动力学掌控者
人工智能·机器学习·自动驾驶·线控系统·悬挂系统