聚类的评估方法

内部评估指标

内部评估方法基于数据本身的特征,不依赖外部标签,适用于无监督学习场景。

轮廓系数(Silhouette Coefficient)

衡量样本与自身簇和其他簇的距离,取值范围为[-1, 1]。值越接近1表示聚类效果越好。公式为:

s(i) = \\frac{b(i) - a(i)}{\\max{a(i), b(i)}}

其中,a(i)是样本i到同簇其他样本的平均距离,b(i)是样本i到最近其他簇的平均距离。

戴维森-堡丁指数(Davies-Bouldin Index, DBI)

反映簇内距离与簇间距离的比值,值越小聚类效果越好。公式为:

DBI = \\frac{1}{k} \\sum_{i=1}\^k \\max_{j \\neq i} \\left( \\frac{\\sigma_i + \\sigma_j}{d(c_i, c_j)} \\right)

其中,\\sigma_i为簇i的平均距离,d(c_i, c_j)为簇中心距离。

Calinski-Harabasz指数(CH指数)

通过簇间离散度与簇内离散度的比值评估聚类,值越大效果越好。公式为:

CH = \\frac{\\text{tr}(B_k)}{\\text{tr}(W_k)} \\times \\frac{n - k}{k - 1}

B_k为簇间离散矩阵,W_k为簇内离散矩阵,n为样本数,k为簇数。


外部评估指标

外部评估方法依赖真实标签,适用于有监督验证的场景。

调整兰德指数(Adjusted Rand Index, ARI)

比较聚类结果与真实标签的相似度,取值范围为[-1, 1],值越接近1表示聚类与标签越一致。公式为:

ARI = \\frac{\\text{RI} - E\[\\text{RI}\]}{\\max(\\text{RI}) - E\[\\text{RI}\]}

RI为兰德指数,E\[\\text{RI}\]为期望值。

归一化互信息(Normalized Mutual Information, NMI)

衡量聚类结果与真实标签的信息共享程度,取值范围为[0, 1]。公式为:

NMI = \\frac{I(U; V)}{\\sqrt{H(U)H(V)}}

I(U; V)为互信息,H(U)H(V)为熵。

Fowlkes-Mallows指数(FMI)

基于成对样本的准确率和召回率几何平均,值越接近1效果越好。公式为:

FMI = \\sqrt{\\frac{TP}{TP + FP} \\times \\frac{TP}{TP + FN}}

TP、FP、FN分别为真正例、假正例、假反例。


其他实用方法

肘部法则(Elbow Method)

通过观察不同簇数下损失函数(如SSE)的变化曲线,选择拐点对应的k值。

间隙统计量(Gap Statistic)

比较实际数据与参考数据的聚类效果差异,选择使间隙值最大的k。公式为:

\\text{Gap}(k) = E\[\\log(W_k)\] - \\log(W_k)

W_k为簇内离散度,E\[\\cdot\]为参考数据期望。

稳定性评估

通过多次聚类结果的相似性(如Jaccard指数)评估算法稳定性,适用于数据扰动场景。

相关推荐
KG_LLM图谱增强大模型2 小时前
【102页最新综述】AI智能体时代的记忆系统:形式、功能与知识图谱长记忆动态机制全景解析
大数据·人工智能·agent
jkyy20142 小时前
从菜品识别到健康决策:AI技术如何赋能B端智慧饮食管理
大数据·人工智能·科技·健康医疗
Coder个人博客2 小时前
Apollo 9.0.0 自动驾驶系统整体架构分析
人工智能·架构·自动驾驶
业精于勤的牙2 小时前
浅谈:算法中的斐波那契数(五)
算法·leetcode·职场和发展
液态不合群2 小时前
查找算法详解
java·数据结构·算法
代码游侠2 小时前
学习笔记——Linux进程间通信(IPC)
linux·运维·笔记·学习·算法
高洁012 小时前
DNN案例一步步构建深层神经网络(3)
python·深度学习·算法·机器学习·transformer
_dindong2 小时前
笔试强训:Week -8
开发语言·c++·算法
Deepoch2 小时前
从“功能机”到“智能体”:服务机器人的认知革命与产业重构
大数据·人工智能·科技·机器人·未来·具身模型·deepoc