• 样本不均衡下的分类损失函数


      通常二分类使用交叉熵损失函数,但是在样本不均衡下,训练时损失函数会偏向样本多的一方,造成训练时损失函数很小,但是对样本较小的类别识别精度不高。

    解决办法之一就是给较少的类别加权,形成加权交叉熵(Weighted cross entropy loss)。今天看到两个方法将权值作为类别样本数量的函数,其中有一个很有意思就录在这里。

             (http://cn.arxiv.org/pdf/1711.05225v3)

    上边说明的时,正负样本的权值和他们的对方数量成比例,举个例子,比如正样本有30,负样本有70,那么正样本的权w+=70/(30+70)=0.7,负样本的权就是w-=30/(30+70)=0.3,

    这样算下来的权值是归一的。这种方法比较直观,普通,应该是线性的。

                              (https://arxiv.org/pdf/1705.02315v4.pdf)

    这个的权值直接就是该类别样本数的反比例函数,是非线性的,相比于上边的很有意思,提供了另一种思路。为了统一期间还是使用w+,w-表示这里的beta P和beta N,

    举个例子,比如正样本有30,负样本有70,那么正样本的权w+=(30+70)/30=3.33,负样本的权就是w-=(30+70)/70=1.42。

    第三中方法:Focal loss

    https://www.jianshu.com/p/204d9ad9507f

    https://arxiv.org/pdf/1708.02002.pdf

    第四种方法:GHM-C loss

    https://arxiv.org/pdf/1811.05181.pdf

    以后看到后继续补充。

  • 相关阅读:
    第一个TS文件
    盒子模型
    不稳定的排序算法
    状态码Status Code
    从输入URL到页面加载完成发生了什么?
    JavaScript中var、let、const的区别
    explain 详解 (转)
    HttpServletRequest对象方法的用法 (转)
    数据一致性理解
    logback 使用详解 (转)
  • 原文地址:https://www.cnblogs.com/yjphhw/p/10019117.html
Copyright © 2020-2023  润新知