• 【特征选择】基础知识


             数据和特征决定了机器学习的上限,而模型和算法只是逼近这个上限而已。特征选择是特种工程的重要组成部分,在现实任务中,获得数据之后通常先进性特征选择,用相关特征训练学习器。

    特征选择的概念

    • 相关特征:与当前学习任务相关的特征
    • 无关特征:与当前学习任务无关的特征
    • 特征选择:在不丢失重要特征的前提下,从给定的特征集合中选择出相关特征子集的过程(相关性)

    特征选择的原因

    1.降低学习难度

    2.减轻维度灾难

    3.减少计算和存储开销

    4.提高模型的可解释性

     

    特征选择的过程

              生成一个“候选子集”,评价候选子集的好坏,基于评价结果生成下一个“候选子集“,再评价候选子集的好坏......直至无法找到更好的候选子集为止。特征选择的关键环节:如何根据评价结果生成下一个候选特征子集?(子集搜索问题)如何评价候选特征子集的好坏?(子集评价问题)

    (1)子集搜索问题

          通过贪心策略解决子集搜索问题,三种常见的策略:

    • 前向搜索策略:逐渐增加相关特征
    • 后向搜索策略:逐渐减少无关特征
    • 双向搜索策略:逐渐增加相关特征,同时逐渐减少无关特征

    (2)子集评价问题

             通过计算候选子集的信息增益,评价候选子集的好坏。信息增益越大,则候选子集包含的的有助于分类的信息越多。信息增益是子集评价的准则之一,其他能判断划分差异的机制均能够用于特征子集评价。

    特征选择方法之决策树

     

    特征选择的方法--过滤式(filter)、包裹式(wrapper)、嵌入式 (embedded)

    • 过滤式--使用发散性/相关性对各个特征进行评分,设定阈值或特征个数选择特征 。特征选择过程与学习器无关,相当于先对初始特征进行过滤,再用过滤后的特征训练模型。

    71cf97a2-47b7-4a98-a5b3-a89de82c0ace

     

    • 包裹式--使用学习器的目标函数对各个特征进行评分,选择若干特征/删除若干特征。特征选择过程与学习器相关,使用学习器的性能作为特征选择的评价准则,选择最有利于学习器性能的特征子集。f635d9ad-f644-4bb3-81ee-d0c5b94ed3dd
    • 嵌入式--使用机器学习算法对各个特征进行评分,选择若干个特征。特征选择过程与学习器相关,特征选择过程与学习器训练过程融合,在学习器训练过程中自动地进行特征选择。

    特征选择的效果

          特征选择不一定提升模型性能。

    • 移除无关特征,能够在一定程度上提升模型性能。
    • 移除重要程度较低的特征,不一定导致模型性能下降,也不一定导致模型性能提升。(特征的某种度量方式不代表特征的最终效果,度量方式只是一个参考而已)
  • 相关阅读:
    贝叶斯统计
    Gamma函数
    归纳逻辑 贝叶斯主义
    向同一个模型的外键反向关联名称产生了冲突 Django迁移
    Transformation-Based Error-Driven Learning and Natural Language Processing: A Case Study in Part-of-Speech Tagging
    part of speech
    fnTBL is a customizable, portable and free source machine-learning toolkit
    Choose between the 64-bit or 32-bit version of Office
    How to Identify Gender in Datasets at Large Scales, Ethically and Responsibly | MIT Center for Civic Media
    英语单词的去重后按照长度降序、升序排列
  • 原文地址:https://www.cnblogs.com/wanglei5205/p/8973614.html
Copyright © 2020-2023  润新知