目标检测中常见指标 - mAP

文章目录

    • [1. 评价指标](#1. 评价指标)
    • [2. 计算示例](#2. 计算示例)
    • [3. COCO评价指标](#3. COCO评价指标)

1. 评价指标

在目标检测领域,比较常用的两个公开数据集:pascal voccoco

目标检测与图像分类明显差距是很大的,在图像分类中,我们通常是统计在验证集当中,分类正确的个数除以验证集的总样本数就能得到准确率。

那么对于目标检测,怎么样才能算检测正确呢?

TP(True Positive):IoU>0.5的检测框数量(同一Ground Truth只计算一次)

FP(False Positive):IoU<=0.5的检测框(或者是检测到同一个GT到多余检测框的数量)

FN(False Negative):没有检测到的GT的数量

Precision: T P T P + F P \frac{TP}{TP+FP} TP+FPTP模型预测的所有目标中,预测正确的比例 - 查准率

Recall: T P T P + F N \frac{TP}{TP+FN} TP+FNTP所有真实目标中,模型预测正确的目标比例 - 查全率

AP:P-R曲线下面积

P-R曲线:Precision-Recall曲线

mAP:mean Average Precision,即各类别AP的平均值


2. 计算示例

当我们recall有重复值时,只用保留Precision值最大的信息。

以Recall为横坐标,以Precision为纵坐标,得到PR曲线。

阴影部分的免费则就说AP值,即
A P = 0.57 × 1.0 + ( 0.71 − 0.57 ) × 0.71 = 0.57 + 0.0994 = 0.6694 AP = 0.57\times 1.0 + (0.71-0.57)\times 0.71 = 0.57+0.0994 = 0.6694 AP=0.57×1.0+(0.71−0.57)×0.71=0.57+0.0994=0.6694

这里求的的AP为对应猫这个类别的AP值。使用同样的方法求出其他类别的AP值,最后求出所有类别AP的均值,就得到了mAP。

注意:

在我们所有网络给出的结果都是经过非极大值抑制处理后所得到的目标边界框。


3. COCO评价指标

官网文档https://cocodataset.org/#detection-eval

相关推荐
只说证事34 分钟前
2025年数字公共治理专业重点学什么内容?(详细指南)
人工智能
LeeZhao@34 分钟前
【AI推理部署】Docker篇04—Docker自动构建镜像
人工智能·docker·容器
程思扬38 分钟前
利用JSONCrack与cpolar提升数据可视化及跨团队协作效率
网络·人工智能·经验分享·docker·信息可视化·容器·架构
南方者44 分钟前
它的 AI Agent 凭什么能擦出火花?!
人工智能·ai编程
心动啊1211 小时前
深度神经网络1——梯度问题+标签数不够问题
人工智能·神经网络·dnn
南方者1 小时前
基于Amazon Bedrock Agent 的两个服务示例的完整流程与详细内容,包含技术架构、实现细节、交互逻辑及扩展能力
人工智能·ai编程·敏捷开发
小王爱学人工智能1 小时前
OpenCV一些进阶操作
人工智能·opencv·计算机视觉
新智元1 小时前
起猛了!这个国家任命 AI 为「部长」:全球首个,手握实权,招标 100% 透明
人工智能·openai
张较瘦_1 小时前
[论文阅读] 人工智能 + 软件工程 | 大语言模型驱动的多来源漏洞影响库识别研究解析
论文阅读·人工智能·语言模型
艾醒1 小时前
大模型面试题剖析:RAG中的文本分割策略
人工智能·算法