集成学习中的多样性密码:量化学习器的多样性

在集成学习中,多样性是一个关键概念,简单来说,多样性衡量的是各个学习器之间的差异程度。

如果学习器之间差异很大,那么它们的组合就更有可能覆盖更多的情况,从而提高集成模型的性能,

就像足球队需要不同位置的球员配合一样。

下面介绍四种常用的多样性度量方法及其实现。

1. 不合度量(Disagreement Measure)

不合度量是一种非常直观的多样性度量方法。

它通过计算两个学习器在样本上的预测结果不一致的比例来衡量它们之间的差异。

不合度量的值介于0到1之间 ,值越接近 1,说明两个学习器的预测结果越不一致,多样性越高。

假设我们有两个学习器 L_1 \\(和\\) L_2 \\(,对于一个数据集中的每个样本\\) x_i \\(,如果\\) L_1 \\(和\\) L_2 的预测结果不同,那么就认为它们在这个样本上**"不合"**。

不合度量就是这种**"不合"**情况的比例。

为了演示如何度量多样性,我们先创建两个不同的决策树模型:

python 复制代码
import numpy as np
from sklearn.datasets import make_classification
from sklearn.model_selection import train_test_split
from sklearn.tree import DecisionTreeClassifier

# 生成数据
X, y = make_classification(
    n_samples=100, n_features=20, n_informative=10, n_redundant=10, random_state=42
)
X_train, X_test, y_train, y_test = train_test_split(
    X, y, test_size=0.2, random_state=42
)

# 训练两个不同的决策树
clf1 = DecisionTreeClassifier(random_state=42)
clf2 = DecisionTreeClassifier(random_state=43)
clf1.fit(X_train, y_train)
clf2.fit(X_train, y_train)

# 预测测试集
y_pred1 = clf1.predict(X_test)
y_pred2 = clf2.predict(X_test)

然后,我们看看如何计算两个模型的不合度量Disagreement Measure)。

python 复制代码
# 计算不合度量
disagreement = np.mean(y_pred1 != y_pred2)
print(f"不合度量: {disagreement}")

## 输出结果:
# 不合度量: 0.2

2. 相关系数(Correlation Coefficient)

相关系数 衡量的是两个学习器预测结果之间的线性相关性

如果两个学习器的预测结果完全一致,相关系数为1

如果完全相反,相关系数为-1

如果两者之间没有线性关系,相关系数接近 0

在集成学习中,我们希望相关系数越低越好,因为这意味着学习器之间的差异更大。

相关系数是通过计算两个学习器预测结果的协方差与它们各自的标准差的比值来得到的。

其公式为: \\rho=\\frac{\\text{Cov}(L_1,L_2)}{\\sigma{L_1}\\sigma{L_2}}

其中, Cov(L_1,L_2) \\(是协方差,\\) \\sigma{L_1} \\(和\\) \\sigma{L_2} \\(分别是\\) L_1 \\(和\\) L_2 的标准差。

使用代码来计算相关系数也很简单,同样使用上面创建的两个决策树模型。

python 复制代码
import numpy as np

# 计算相关系数
correlation = np.corrcoef(y_pred1, y_pred2)[0, 1]
print(f"相关系数: {correlation}")

## 输出结果:
# 相关系数: 0.6637465183030644

3. Q-统计量(Q-Statistic)

Q-统计量是另一种衡量学习器之间一致性和差异性的指标。

它通过比较两个学习器在样本上的预测结果来计算。

Q-统计量 的值介于**-1 到 1 之间** ,值越接近 1,说明两个学习器的预测结果越一致;

值越接近-1,说明它们的预测结果越不一致。

Q-统计量的计算公式为: Q=\\frac{a\\times d-b\\times c}{(a+b)\\times(c+d)}

其中:

  • a 是两个学习器都正确预测的样本数
  • b 是第一个学习器正确预测,第二个学习器错误预测的样本数
  • c 是第一个学习器错误预测,第二个学习器正确预测的样本数
  • d 是两个学习器都错误预测的样本数

计算Q-统计量的示例代码如下:

python 复制代码
from sklearn.metrics import confusion_matrix

# 计算混淆矩阵
cm = confusion_matrix(y_test, y_pred1, labels=[0, 1])
a = np.sum((y_pred1 == y_test) & (y_pred2 == y_test))
b = np.sum((y_pred1 == y_test) & (y_pred2 != y_test))
c = np.sum((y_pred1 != y_test) & (y_pred2 == y_test))
d = np.sum((y_pred1 != y_test) & (y_pred2 != y_test))

# 计算 Q-统计量
q_statistic = (a * d - b * c) / ((a + b) * (c + d))
print(f"Q-统计量: {q_statistic}")

## 输出结果:
# Q-统计量: 0.5757575757575758

4. k-统计量(Kappa Statistic)

k-统计量是一种衡量分类器性能的指标,它考虑了分类器的正确率和随机猜测的正确率。

在集成学习中,k-统计量可以用来衡量两个学习器之间的多样性。

k-统计量 的值介于**-1 到 1 之间** ,值越接近 1,说明两个学习器的预测结果越一致;

值越接近-1,说明它们的预测结果越不一致。

k-统计量的计算公式为: \\kappa=\\frac{P_o-P_e}{1-P_e}

其中:

  • P_o 是两个学习器预测结果一致的比例
  • P_e 是随机猜测下两个学习器预测结果一致的比例

计算k统计量的示例代码如下:

python 复制代码
from sklearn.metrics import cohen_kappa_score

# 计算 k-统计量
kappa_statistic = cohen_kappa_score(y_pred1, y_pred2)
print(f"Kappa 统计量: {kappa_statistic}")

## 输出结果:
# Kappa 统计量: 0.6116504854368932

5. 指标使用建议

在实际场景中,我们应该如何使用这些指标呢?下面是一些使用建议:

  1. Bagging中优先关注不合度量
  2. 构建Stacking时参考相关系数
  3. 使用Q-statistic诊断高相关模型
  4. Kappa值过低时考虑增加模型类型差异

各个指标的数值可参考:

指标 理想范围 应用场景
不合度量 0.3-0.7 快速评估模型差异度
相关系数 [-0.5, 0.5] 分析模型互补性
Q-统计量 (-0.5, 0.5) 研究预测结果关联强度
Kappa统计量 <0.4 综合评估一致性水平

6. 总结

在集成学习中,度量学习器的多样性是非常重要的。

通过计算不合度量相关系数Q-统计量k-统计量,我们可以更好地了解学习器之间的差异。

这些指标可以帮助我们选择合适的集成策略,从而提高集成模型的性能。

在实际应用中,可以根据具体问题选择合适的多样性度量指标,并结合scikit-learn等工具进行计算和分析。

相关推荐
伊织code1 小时前
PyTorch API 6 - 编译、fft、fx、函数转换、调试、符号追踪
pytorch·python·ai·api·-·6
攻城狮7号4 小时前
一文理清人工智能,机器学习,深度学习的概念
人工智能·深度学习·机器学习·ai
pumpkin845149 小时前
一次讲清 FP32 / FP16 / BF16 / INT8 / INT4
ai
pumpkin845141 天前
DeepSeek-R1-Distill-Qwen-1.5B代表什么含义?
ai
码观天工1 天前
.NET 原生驾驭 AI 新基建实战系列(七):Weaviate ── 语义搜索的智能引擎创新者
ai·c#·.net·向量数据库·weaviate
带刺的坐椅1 天前
jFinal 使用 SolonMCP 开发 MCP(拥抱新潮流)
java·ai·solon·jfinal·mcp
探索云原生1 天前
一文搞懂 GPU 共享方案: NVIDIA Time Slicing
ai·云原生·kubernetes·gpu
菜鸟分享录1 天前
MCP 入门实战:用 C# 开启 AI 新篇章
ai·c#·semantic kernel·mcp
wang_yb1 天前
集成学习常用组合策略:让多个模型“合作”得更好
ai·databook