分类算法的评价指标用于衡量模型在分类任务中的表现,帮助判断模型的好坏和适用性。以下是常用的分类评价指标:
1. 准确率 (Accuracy)
- 定义: 正确分类的样本数占总样本数的比例。
- 公式: \[ \text{Accuracy} = \frac{TP + TN}{TP + TN + FP + FN} \]
- 适用场景: 当类别分布均衡时有效,不适用于类别极不平衡的数据集。
2. 精确率 (Precision)
- 定义: 正确预测为正类的样本数占所有预测为正类的样本数的比例。
- 公式: \[ \text{Precision} = \frac{TP}{TP + FP} \]
- 适用场景: 适用于关注误报成本的场景,如垃圾邮件检测。
3. 召回率 (Recall)
- 定义: 正确预测为正类的样本数占所有真实正类样本数的比例。
- 公式: \[ \text{Recall} = \frac{TP}{TP + FN} \]
- 适用场景: 适用于关注漏报成本的场景,如疾病检测。
4. F1分数 (F1 Score)
- 定义: 精确率和召回率的调和平均数。
- 公式: \[ \text{F1 Score} = 2 \times \frac{\text{Precision} \times \text{Recall}}{\text{Precision} + \text{Recall}} \]
- 适用场景: 适用于精确率和召回率都很重要的场景,特别是类别不平衡时。
5. 特异度 (Specificity)
- 定义: 正确预测为负类的样本数占所有真实负类样本数的比例。
- 公式: \[ \text{Specificity} = \frac{TN}{TN + FP} \]
- 适用场景: 与召回率一起使用,特别是当负类更为重要时。
6. ROC曲线 (Receiver Operating Characteristic Curve) 和 AUC (Area Under Curve)
- 定义: ROC曲线展示了模型的TPR(真阳性率)与FPR(假阳性率)的关系,AUC则表示曲线下的面积,衡量模型区分正负类的能力。
- 适用场景: 用于评估分类模型在不同阈值下的表现,适用于不平衡数据。
7. PR曲线 (Precision-Recall Curve)
- 定义: 展示了不同阈值下的精确率和召回率的关系。
- 适用场景: 适用于类别严重不平衡时,用来替代ROC曲线。
8. Kappa系数 (Cohen's Kappa)
- 定义: 衡量分类器的准确性与随机猜测准确性的差异。
- 公式: \[ \text{Kappa} = \frac{p_o - p_e}{1 - p_e} \] 其中 \( p_o \) 是观察到的准确率,\( p_e \) 是随机猜测的准确率。
- 适用场景: 用于评价分类器相对于随机猜测的改进。
9. 平均精确率 (Average Precision)
- 定义: 综合多个阈值下的精确率和召回率的表现。
- 适用场景: 类似于AUC,但特别适合类别不平衡的情况。
10. Log Loss (对数损失)
- 定义: 测量模型输出的概率与真实标签之间的差距。
- 公式: \[ \text{Log Loss} = -\frac{1}{N} \sum_{i=1}^{N} \left[y_i \log(p_i) + (1 - y_i) \log(1 - p_i)\right] \]
- 适用场景: 用于评估分类器输出概率的准确性。
常用术语:
- TP (True Positive): 真阳性,正确预测的正类样本数。
- TN (True Negative): 真阴性,正确预测的负类样本数。
- FP (False Positive): 假阳性,错误预测为正类的负类样本数。
- FN (False Negative): 假阴性,错误预测为负类的正类样本数。
这些指标帮助我们从不同的角度评估分类模型的性能,并根据具体应用场景选择合适的评价指标。