• 目标检测学习1


     评价指标:

    1.准确率 (Accuracy):分对的样本数除以所有的样本数 ,即:准确(分类)率 = 正确预测的正反例数 / 总数

    注:准确率一般用来评估模型的全局准确程度,不能包含太多信息,无法全面评价一个模型性能。

    2.混淆矩阵 (Confusion Matrix):混淆矩阵中的横轴是模型预测的类别数量统计,纵轴是数据真实标签的数量统计

    注:对角线,表示模型预测和数据标签一致的数目所以对角线之和除以测试集总数就是准确率对角线上数字越大越好,在可视化结果中颜色越深,说明模型在该类的预测准确率越高。如果按行来看,每行不在对角线位置的就是错误预测的类别。总的来说,我们希望对角线越高越好,非对角线越低越好

    3.精确率(Precision):在识别出来的图片中,True positives所占的比率。也就是本假设中,所有被识别出来的飞机中真正的飞机所占的比例。

      

    4.召回率(Recall):是测试集中所有正样本样例中,被正确识别为正样本的比例。也就是本假设中,被正确识别出来的飞机个数测试集中所有真实飞机的个数的比值。

      

    5.Precision-recall 曲线:改变识别阈值,使得系统依次能够识别前K张图片,阈值的变化同时会导致Precision与Recall值发生变化,从而得到曲线。

    6.平均正确率(AP):Precision-recall 曲线下面的面积,通常来说一个越好的分类器,AP值越高。

      在正样本非常少的情况下,PR表现的效果会更好。

      

    7.mean Average Precision(mAP):mAP是多个类别AP的平均值。这个mean的意思是对每个类的AP再求平均,得到的就是mAP的值,mAP的大小一定在[0,1]区间,越大越好。该指标是目标检测算法中最重要的一个。

    8.交除并(IoU):系统预测出来的框与原来图片中标记的框的重合程度。

     计算方法即检测结果Detection Result与 Ground Truth 的交集比上它们的并集,即为检测的准确率。

      IOU正是表达这种bounding box和groundtruth的差异的指标:

      

    9.ROC + AUC:


         

      ROC曲线:

    • 横坐标:假正率(False positive rate, FPR),FPR = FP / [ FP + TN] ,代表所有负样本中错误预测为正样本的概率,假警报率;
    • 纵坐标:真正率(True positive rate, TPR),TPR  = TP / [ TP + FN] ,代表所有正样本中预测正确的概率,命中率。
    • 对角线对应于随机猜测模型,而(0,1)对应于所有整理排在所有反例之前的理想模型。曲线越接近左上角,分类器的性能越好。

    注:ROC曲线有个很好的特性:当测试集中的正负样本的分布变化的时候,ROC曲线能够保持不变。在实际的数据集中经常会出现类不平衡(class imbalance)现象,即负样本比正样本多很多(或者相反),而且测试数据中的正负样本的分布也可能随着时间变化。

    ROC曲线绘制:

      (1)根据每个测试样本属于正样本的概率值从大到小排序;

      (2)从高到低,依次将“Score”值作为阈值threshold,当测试样本属于正样本的概率大于或等于这个threshold时,我们认为它为正样本,否则为负样本;

      (3)每次选取一个不同的threshold,我们就可以得到一组FPR和TPR,即ROC曲线上的一点。 

       当我们将threshold设置为1和0时,分别可以得到ROC曲线上的(0,0)和(1,1)两个点。将这些(FPR,TPR)对连接起来,就得到了ROC曲线。当threshold取值越多,ROC曲线越平滑。

       AUC(Area Under Curve)即为ROC曲线下的面积。AUC越接近于1,分类器性能越好

       物理意义:首先AUC值是一个概率值,当你随机挑选一个正样本以及一个负样本,当前的分类算法根据计算得到的Score值将这个正样本排在负样本前面的概率就是AUC值。当然,AUC值越大,当前的分类算法越有可能将正样本排在负样本前面,即能够更好的分类。

      计算公式:就是求曲线下矩形面积。

      

    非极大值抑制(NMS):

    Non-Maximum Suppression就是需要根据score矩阵和region的坐标信息,从中找到置信度比较高的bounding box。对于有重叠在一起的预测框,只保留得分最高的那个。

      (1)NMS计算出每一个bounding box的面积,然后根据score进行排序,把score最大的bounding box作为队列中首个要比较的对象;

      (2)计算其余bounding box与当前最大score与box的IoU,去除IoU大于设定的阈值的bounding box,保留小的IoU得预测框;

      (3)然后重复上面的过程,直至候选bounding box为空。

      最终,检测了bounding box的过程中有两个阈值,一个就是IoU,另一个是在过程之后,从候选的bounding box中剔除score小于阈值的bounding box。需要注意的是:Non-Maximum Suppression一次处理一个类别,如果有N个类别,Non-Maximum Suppression就需要执行N次。

     注:

    bounding box:

    (1) 一开始会有预测的边框值输入。原来的分类问题只是输入一张图,但是现在对于输入的图还有它在原图中的位置信息。比如滑动窗口、RCNN中selective search给出的区域提案等,产生用于分类判断的区域PP

    (2) 输入的图会通过卷积网络学习提取出特征向量ϕ5(P)ϕ5(P)

    (3) 目标检测的一个目标是希望最后的bounding box(P)和ground truth(G)一致,但是实现方法并不是学习坐标,而是学习变形比例:包括两个部分,一个是对边框(x, y)进行移动,一个是对边框大小(w, h)进行缩放

    Bounding-Box regression

    (35条消息) 边框回归(Bounding Box Regression)详解_南有乔木NTU的博客-CSDN博客

  • 相关阅读:
    Linux 终端常用快捷键
    问题集
    数据库
    mysql数据库知识点
    IntelliJ IDEAj集成开发环境
    Windows最全DOS的CMD命令
    DB2移植到Oracle数据库完整的图解教程
    169.254是什么IP地址 169.254的解决方法(添加局域网地址时)
    解析xml时报错
    童年乐趣
  • 原文地址:https://www.cnblogs.com/Catherinezhilin/p/15463545.html
Copyright © 2020-2023  润新知