• 论文总结4 特征选择方法


     

    1、信息增益IG

    InfGain (W)

    =H(C)-H(C|W )

    =P(W)∑iP(Ci|W)logP(Ci|W)/P(Ci)+P(`W)∑iP(Ci|`W)logP(Ci|`W )/P(Ci)

    2、期望交叉熵ECE

    CrossEntryTxt(W) = P(W)∑iP(Ci|W)logP(Ci|W)/P(Ci)

    3、互信息MI

    MutualInfoTxt(W) = ∑iP(Ci)logP(W|Ci)/P(W)

    4、改进的互信息IMI

    IMI(W) = ∑iP(Ci)|logP(W|Ci)/P(W)|

    5、互信息比值

    MutualInfoRatio(W)=

    0, if MaxInfo=0 LessMaxInfo=0;

    а, if MaxInfo≠0 LessMaxInfo=0;

    MaxInfo/LessMaxInfo, if LessMaxInfo≠0

    其中: MaxInfo = max{| logP(W|Ci)/P(W)|}, LessMaxInfo = {| logP(W|Ci)/P(W)|- MaxInfo},i = 1,2…M. M是训练语料的类别数,а是预先给定的一个较大的常数.

    比了4和5,5的效果好。

    6、文档频率DF

    DF(£)=出现特征f的文档数训练集的总文档数。

    7、 X2统计量CHI(X2 Statistic)

    CHI(F)=ΣP(ci)x2(t,ci)= ∑iP(Ci)N(AD-BC)2/(A+C)(B+D)(A+B)(C+D)

    8、文本证据权(WET,the Weight of Evidence for Text)

    WET(t)=P(t) ΣP(ci)| P(Ci|t)(1-P(Ci))/P(Ci)(1- P(Ci|t))|

    9、几率比(0R,Odds Ratio)

    Or(t)=log P(t|Cpos) (1- P(t|Cneg)/ P(t|Cneg) (1- P(t|Cpos)

    结论:(1)OR方法的效果是最好的,IG、CHI和ECE次之,WET和DF再次,MI的效果是最差的。 (2)OR之所以会取得最好的效果是因为它不是将所有的类别同等对待,而是只关心目标类别。 (3)MI的效果最差,究其原因可能是MI没有考虑特征词出现的频度。(4)当特征维数从1 000到4 000变化时,F1值的变化是比较显著的,而当特征维数>6 000时,系统性能趋于平稳,其变化是缓慢的。

  • 相关阅读:
    500桶酒中有一桶毒酒
    查看docker run参数(亲测实用)
    ubuntu密码忘记-备份
    python sklearn2pmml
    javafx弹窗显示错误堆栈
    Java实现新开一个进程
    MockServer调试通过,本地通过浏览器可以打开对应web网页
    java 实现Put request
    JAVA发送HttpClient请求及接收请求完整代码实例
    我还是很喜欢你
  • 原文地址:https://www.cnblogs.com/chrisnannan/p/2802952.html
Copyright © 2020-2023  润新知