• Generalized Focal Loss: Learning Qualified and Distributed Bounding Boxes for Dense Object Detection


    Generalized Focal Loss: Learning Qualified and Distributed Bounding Boxes for

    Dense Object Detection

    一. 论文简介

    将目标检测Loss和评价指标统一,提升检测精度。这是一篇挺好的论文,下面会将其拓展到其它领域。

    主要做的贡献如下(可能之前有人已提出):

    1. 分类Loss+评价指标
    2. Regression分布推广到一般性

    二. 模块详解

    2.1 谈谈分布

    1. 什么是分布?表示一个数发生的概率,设 (f=P(x)) 表示分布函数,(f) 表示发生的概率,(x) 可能存在的数。1)显而易见,(int_{-infty}^{+infty}P(x)dx=1),所有的数存在概率总和为1。 2)(y=int_{-infty}^{+infty}P(x)*xdx) ,它的整体期望(平均值)肯定是等于目标值的。
    2. 什么是 (Dirac) 分布? reference(f=delta(x-mu)) , 当 (x=mu) 概率为1,其它都是0。这是什么意思?此分布简称为绝对分布,只要是直接求目标的,都属于此分布。比如:1)直接计算 (one-hot) 交叉熵 (label=[0,0,0,1],pred=[0.2,0.1,0.1,0.6]),我们的目的就是两者相等,其它的值都是不存在的。你问我按照(Delta) 分布应该其他值为0才对啊,那loss=0(实际loss为什么不是0)怎么回传呢?记住Loss和分布不是一个概念,Loss是我们用一种方式使得结果达到理想分布,分布是一种理想的状态,简单点说 (Loss o Sample)。2)那么直接进行BBox回归也是一种 (Delta) 分布,因为都是预测一个值,然后直接和Label进行smoothL1计算Loss。
    3. 什么是 (Gaussian) 分布,这个不多说大家都知道。(Gaussian-YOLO)(Heatmap) 都是属于此分布。举个例子:刚开始做关键点(当前小模型人脸也是这样做的)直接使用坐标 ((x,y)) 进行回归,显然这是属于 (Delta) 分布的,后面人们将其改进为 (Heatmap),这就是将分布改为 (Gaussian),所以称为(Gaussian-Heatmap) .
    4. 什么是任意分布?只满足分布的两个条件,没有具体的公式。直接使用期望和Label进行计算Loss即可。
    5. 进一步理解Loss和分布的关系,期望和Label计算Loss(前向推导使用期望做结果),中间概率和期望计算Loss(使得输出按照一定分布进行,容易收敛提高精度)。

    2.2 分类Loss

    笔者给出简短说明:

    • 先去看一下FCOS论文,其中使用 (center-ness) 计算预测框质量,两个作用:1)训练时抑制质量较差的框。2)前向计算时用于NMS操作指标。
    • 问题来了。。。训练阶段、前向计算、评价指标没有统一?
    • 论文魔改一下Focal-Loss、center-ness统一为一个Loss
    • 此部分比较简单,基本和FCOS类似

    # 代码出自mmdetection
    @weighted_loss
    def quality_focal_loss(pred, target, beta=2.0):
        """Quality Focal Loss (QFL) is from
        Generalized Focal Loss: Learning Qualified and Distributed Bounding Boxes
        for Dense Object Detection
        https://arxiv.org/abs/2006.04388
    
        Args:
            pred (torch.Tensor): Predicted joint representation of classification
                and quality (IoU) estimation with shape (N, C), C is the number of
                classes.
            target (tuple([torch.Tensor])): Target category label with shape (N,)
                and target quality label with shape (N,).
            beta (float): The beta parameter for calculating the modulating factor.
                Defaults to 2.0.
    
        Return:
            torch.Tensor: Loss tensor with shape (N,).
        """
        assert len(target) == 2, """target for QFL must be a tuple of two elements,
            including category label and quality label, respectively"""
        # label denotes the category id, score denotes the quality score
        label, score = target
    
        # negatives are supervised by 0 quality score
        pred_sigmoid = pred.sigmoid()
        scale_factor = pred_sigmoid
        zerolabel = scale_factor.new_zeros(pred.shape)
        loss = F.binary_cross_entropy_with_logits(
            pred, zerolabel, reduction='none') * scale_factor.pow(beta)
    
        # FG cat_id: [0, num_classes -1], BG cat_id: num_classes
        bg_class_ind = pred.size(1)
        pos = ((label >= 0) & (label < bg_class_ind)).nonzero().squeeze(1)
        pos_label = label[pos].long()
        # positives are supervised by bbox quality (IoU) score
        scale_factor = score[pos] - pred_sigmoid[pos, pos_label]
        loss[pos, pos_label] = F.binary_cross_entropy_with_logits(
            pred[pos, pos_label], score[pos],
            reduction='none') * scale_factor.abs().pow(beta)
    
        loss = loss.sum(dim=1, keepdim=False)
        return loss
    
    

    2.3 回归Loss

    主要包括两个部分:

    • (Delta) 分布推广到任意分布

      • 论文公式(3)是 (Delta) 分布的期望,公式(4)和(5)是任意分布的期望
      • 直接预测多个(论文设置为16)值,求期望得到最佳值
      • TIPS: 效果肯定比 (Delta) 分布好,但是计算量会增加。小模型一般不适用,大模型使用较多。
    • 限制任意分布

      • 任意分布会过于离散,实际真实的值距离label都不会太远
      • 限制分布范围,论文公式(6)
      • TIPS: 按照公式推导应该效果好(正在推广到关键点检测),使用任意分布的都可以加上试试。
    # 代码出自mmdetection
    @weighted_loss
    def distribution_focal_loss(pred, label):
        """Distribution Focal Loss (DFL) is from
        Generalized Focal Loss: Learning Qualified and Distributed Bounding Boxes
        for Dense Object Detection
        https://arxiv.org/abs/2006.04388
    
        Args:
            pred (torch.Tensor): Predicted general distribution of bounding boxes
                (before softmax) with shape (N, n+1), n is the max value of the
                integral set `{0, ..., n}` in paper.
            label (torch.Tensor): Target distance label for bounding boxes with
                shape (N,).
    
        Return:
            torch.Tensor: Loss tensor with shape (N,).
        """
        # 完全按照论文公式(6)所示,label是真实值(目标框和anchor之间的偏差,参考FCOS)
        # pred的shape(偏差*分布),如果没有后面的分布,那就变成delta分布
        dis_left = label.long() # label范围[0,正无穷],感觉这里应该-1然后限制一下范围最好。作者说long()向下取整,但是这解决不了对称问题。
        dis_right = dis_left + 1
        weight_left = dis_right.float() - label
        weight_right = label - dis_left.float()
        loss = F.cross_entropy(pred, dis_left, reduction='none') * weight_left 
            + F.cross_entropy(pred, dis_right, reduction='none') * weight_right
        return loss
    

    三. 参考文献

  • 相关阅读:
    fetch API 和 ajax
    java 通过数据库名获得 该数据所有的表名以及字段名、字段类型
    自定义注解,通过反射获得注解中的值(详细自定义注解解释)
    main方法中sleep
    eclipse中设置JVM内存
    命令java 找不到或无法加载主类
    windows下的命令
    mac terminal基本命令
    ThreadLocal 源码剖析
    SQL中的函数用法
  • 原文地址:https://www.cnblogs.com/wjy-lulu/p/13863311.html
Copyright © 2020-2023  润新知