• Recall(召回率);Precision(准确率);F1-Meature(综合评价指标);true positives;false positives;false negatives.


    Recall(召回率);Precision(准确率);F1-Meature(综合评价指标);在信息检索(如搜索引擎)、自然语言处理和检测分类中经常会使用这些参数。

    Precision:被检测出来的信息当中正确的或者相关的(也就是你想要的)信息中所占的比例(TP占预测总正样本的比例)
    Recall:所有正确的信息或者相关的信息(wanted)被检测出来的比例(TP占真实总正样本数的比例)
     
     
    表格中的翻译比较重要,可以帮助理解。
    true positives (纳真)                     false positives(纳伪)=误报
    false negatives(去真)=漏报       true negatives  (去伪)
    其中false positives(纳伪)也通常称作误报,false negatives也通常称作漏报!
    Precision =  tp/(tp + fp);
    Recall = tp / (tp + fn).
    同样还有另外两个定义:
        mbox{True Negative Rate}=frac{tn}{tn+fp} \,
        mbox{Accuracy}=frac{tp+tn}{tp+tn+fp+fn} \,
     
    然而在实际当中我们当然希望检索的结果P越高越好,R也越高越好;事实上这两者在某些情况下是矛盾的。比如,我们只搜出了一个结果,且是准确的,那么P就是100%,但是R就很低;而如果我们把所有结果都返回,那么必然R是100%,但是P很低。因此在不同的场合中需要自己判断希望P比较高还是R比较高。如果是做实验,可以绘制Precision-Recall曲线来帮助分析。
     
    F-Measure是Precision和Recall加权调和平均:

     F = frac{(a^2+1)P*R} {a^2(P+R)} hfill (3)

    当参数a=1时,就是最常见的F1了:
     F1 = frac{2PR} {P+R} hfill (4)

    很容易理解,F1综合了P和R的结果,当F1较高时则比较说明实验方法比较理想。

  • 相关阅读:
    MT【126】点对个数两题之二【图论】
    MT【125】四点共圆
    MT【124】利用柯西求最值
    MT【123】利用第一次的技巧
    MT【122】一个重要的不平凡的无穷级数
    MT【121】耐克数列的估计
    MT【120】保三角函数
    MT【119】关于恒成立的一道压轴题
    计算机视觉目标检测的框架与过程
    使用模板类导致error LNK2019: 无法解析的外部符号
  • 原文地址:https://www.cnblogs.com/hudongni1/p/5361424.html
Copyright © 2020-2023  润新知