• Focal loss论文解析


    Focal loss是目标检测领域的一篇十分经典的论文,它通过改造损失函数提升了一阶段目标检测的性能,背后关于类别不平衡的学习的思想值得我们深入地去探索和学习。正负样本失衡不仅仅在目标检测算法中会出现,在别的机器学习任务中同样会出现,这篇论文为我们解决类似问题提供了一个很好的启发,所以我认为无论是否从事目标检测领域相关工作,都可以来看一看这篇好论文。

    论文的关键性改进在于对损失函数的改造以及对参数初始化的设置。

    首先是对损失函数的改造。论文中指出,限制目标检测网络性能的一个关键因素是类别不平衡。二阶段目标检测算法相比于一阶段目标检测算法的优点在于,二阶段的目标检测算法通过候选框筛选算法(proposal stage)过滤了大部分背景样本(负样本),使得正负样本比例适中;而一阶段的目标检测算法中,需要处理大量的负样本,使得包含目标的正样本信息被淹没。这使得一阶段目标检测算法的识别准确度上比不上二阶段的目标检测算法。

    为了解决这个问题,Focal loss使用了动态加权的思想,对于置信度高的样本,损失函数进行降权;对于置信度低的样本,损失函数进行加权,使得网络在反向传播时,置信度低的样本能够提供更大的梯度占比,即从未学习好的样本中获取更多的信息(就像高中时期的错题本一样,对于容易错的题目,包含了更多的信息量,需要更加关注这种题目;而对于屡屡正确的题目,可以少点关注,说明已经掌握了这类型的题目)
    其巧妙之处就在于,通过了网络本身输出的概率值(置信度)去构建权重,实现了自适应调整权重的目的。

    公式的讲解

    Focal loss是基于交叉熵损失构建的,二元交叉熵的公式为

    [mathrm{CE}(p, y)=left{egin{array}{ll} -log (p) & ext { if } y = +1 \ -log (1-p) & ext { y = -1 } end{array} ight. ]

    为了方便表示,定义(p_t)为分类正确的概率

    [p_{t}=left{egin{array}{ll} p & ext { if } y = +1 \ 1-p & ext { y = -1 } end{array} ight. ]

    则交叉熵损失表示为(CE(p,y)=CE(p_t)=-log(p_t))。如前文所述,通过置信度对损失进行缩放得到Focal loss。

    [FL(p_t)=-alpha_t(1-p_t)^gamma log(p_t)= alpha_t(1-p_t)^gamma imes CE(p_t) ]

    其中,(alpha_{1}=left{egin{array}{ll} alpha & ext { if } y = +1 \ 1-alpha & ext { y = -1 } end{array} ight.)为缩放乘数(直接调整正负样本的权重),(gamma)为缩放因子,((1-p_t))可以理解为分类错误的概率。公式中起到关键作用的部分是((1-p_t)^gamma)。为了给易分样本降权,通常设置(gamma>1)
    对于正确分类的样本,(p_t o 1 Rightarrow(1-p_t) o 0),受到(gamma)的影响很大,((1-p_t)^gamma approx 0)
    对于错误分类的样本,(p_t o 0 Rightarrow(1-p_t) o 1),受到(gamma)的影响较小,((1-p_t)^gamma approx (1-p_t)),对于难分样本的降权较小。
    Focal loss本质上是通过置信度给易分样本进行更多的降权,对难分样本进行更少的降权,实现对难分样本的关注。

    参数初始化

    论文中还有一个比较重要的点是对于子网络最后一层权重的初始化方式,关系到网络初期训练的性能。这里结合论文和我看过的一篇博文进行详细的展开。常规的深度学习网络初始化算法,使用的分布是高斯分布,根据概率论知识,两个高斯分布的变量的乘积仍然服从高斯分布。假设权重(wsim N(mu_w,sigma_w^2)),最后一层的特征(xsim N(mu_x,sigma_x^2)),则(wx sim N(mu_{wx},sigma_{wx}^2))

    [mu_{wx}=frac{mu_w sigma_x^2+mu_x sigma_w^2}{sigma_x^2+sigma_w^2}\ sigma_{wx}=frac{sigma_x^2sigma_w^2}{sigma_x^2+sigma_w^2} ]

    其中(x)的分布取决于网络的结果,(w)的分布参数为(mu_w=0,sigma_w^2=10^{-4}),只需(x)的分布参数满足(sigma_x^2gg 10^{-4},sigma_x^2gg10^{-4}mu_x)成立,有如下的不等式。(一般情况下,这两个条件是成立的。)

    [mu_{wx}=frac{mu_w sigma_x^2+mu_x sigma_w^2}{sigma_x^2+sigma_w^2}=frac{10^{-4}mu_x}{sigma_x^2+10^{-4}}llfrac{10^{-4}mu_x}{10^{-4}mu_x+10^{-4}}=frac{1}{1+frac{1}{mu_x}}approx0 ext{由于}mu_x ext{一般为分数(网络的输入经过归一化到0至1,随着网络加深的连乘,分数会越来越小)}\ sigma_{wx}=frac{sigma_x^2sigma_w^2}{sigma_x^2+sigma_w^2}=frac{10^{-4}}{1+frac{10^{-4}}{sigma_x^2}}approx10^{-4} ext{由于}sigma_x^2gg10^{-4} ]

    根据上述推导,(wx)服从一个均值为0,方差很小的高斯分布,可以在很大概率上认为它就等于0,所以网络最后一层的输出为

    [p=sigmoid(wx+b)=sigmoid(b)=frac{1}{1+e^{-b}}=pi ]

    (pi)为网络初始化时输出为正类的概率,设置为一个很小的值(0.01),则网络在训练初期,将样本都划分为负类,对于正类(p_t=0.01),负类(p_t=0.99),则训练初期,正类都被大概率错分,负类都被大概率正确分类,所以在训练初期更加关注正类,避免初期的正类信息被淹没在负类信息中。

    总结

    总的来说,Focal loss通过对损失函数的简单改进,实现了一种自适应的困难样本挖掘策略,使得网络在学习过程中关注更难学习的样本,在一定程度上解决了正负样本分布不均衡的问题(由于正负样本分布不均衡,对于稀少的正样本学习不足,导致正样本普遍表现为难分样本)。

    参考资料

    论文原文
    一篇不错的解析博客

  • 相关阅读:
    Java基础——方法
    JavaScript-JSON解析
    JavaScript—事件
    Window 浏览器窗口对象
    JavaScript 事件
    JavaEE——css字体样式效果
    JavaEE——CSS字体样式
    JavaEE——CSS3选择器
    JavaEE——css边框样式
    JavaEE——XML简介
  • 原文地址:https://www.cnblogs.com/kuadoh/p/13775379.html
Copyright © 2020-2023  润新知