• 机器学习实战基础(十四):sklearn中的数据预处理和特征工程(七)特征选择 之 Filter过滤法(一) 方差过滤


    Filter过滤法

    过滤方法通常用作预处理步骤,特征选择完全独立于任何机器学习算法。它是根据各种统计检验中的分数以及相关性的各项指标来选择特征

    1 方差过滤

    1.1 VarianceThreshold

    这是通过特征本身的方差来筛选特征的类。比如一个特征本身的方差很小,就表示样本在这个特征上基本没有差异,可能特征中的大多数值都一样,甚至整个特征的取值都相同,那这个特征对于样本区分没有什么作用。所以无论接下来的特征工程要做什么,都要优先消除方差为0的特征。
    VarianceThreshold有重要参数threshold,表示方差的阈值,表示舍弃所有方差小于threshold的特征,不填默认为0,即删除所有的记录都相同的特征。

    from sklearn.feature_selection import VarianceThreshold
    selector = VarianceThreshold()                      #实例化,不填参数默认方差为0
    X_var0 = selector.fit_transform(X)                  #获取删除不合格特征之后的新特征矩阵
     
    #也可以直接写成 X = VairanceThreshold().fit_transform(X)
     
    X_var0.shape

    可以看见,我们已经删除了方差为0的特征,但是依然剩下了708多个特征,明显还需要进一步的特征选择。然而,如果我们知道我们需要多少个特征,方差也可以帮助我们将特征选择一步到位。比如说,我们希望留下一半的特征,那可以设定一个让特征总数减半的方差阈值,只要找到特征方差的中位数,再将这个中位数作为参数
    threshold的值输入就好了:

    import numpy as np
    X_fsvar = VarianceThreshold(np.median(X.var().values)).fit_transform(X)
     
    X.var().values
     
    np.median(X.var().values)
     
    X_fsvar.shape

    当特征是二分类时,特征的取值就是伯努利随机变量,这些变量的方差可以计算为:

     其中X是特征矩阵,p是二分类特征中的一类在这个特征中所占的概率

    #若特征是伯努利随机变量,假设p=0.8,即二分类特征中某种分类占到80%以上的时候删除特征
    X_bvar = VarianceThreshold(.8 * (1 - .8)).fit_transform(X)
    X_bvar.shape

    1.2 方差过滤对模型的影响

    我们这样做了以后,对模型效果会有怎样的影响呢?在这里,我为大家准备了KNN和随机森林分别在方差过滤前和方差过滤后运行的效果和运行时间的对比。
    KNN是K近邻算法中的分类算法,其原理非常简单,是利用每个样本到其他样本点的距离来判断每个样本点的相似度,然后对样本进行分类。
    KNN必须遍历每个特征和每个样本,因而特征越多,KNN的计算也就会越缓慢。由于这一段代码对比运行时间过长,所以我为大家贴出了代码和结果。

    1. 导入模块并准备数据

    #KNN vs 随机森林在不同方差过滤效果下的对比
    from sklearn.ensemble import RandomForestClassifier as RFC
    from sklearn.neighbors import KNeighborsClassifier as KNN
    from sklearn.model_selection import cross_val_score
    import numpy as np
     
    X = data.iloc[:,1:]
    y = data.iloc[:,0]
     
    X_fsvar = VarianceThreshold(np.median(X.var().values)).fit_transform(X)

    我们从模块neighbors导入KNeighborsClassfier缩写为KNN,导入随机森林缩写为RFC,然后导入交叉验证模块和
    numpy。其中未过滤的数据是X和y,使用中位数过滤后的数据是X_fsvar,都是我们之前已经运行过的代码。

    2. KNN方差过滤前

    #======【TIME WARNING:35mins +】======#
    cross_val_score(KNN(),X,y,cv=5).mean()
     
    #python中的魔法命令,可以直接使用%%timeit来计算运行这个cell中的代码所需的时间
    #为了计算所需的时间,需要将这个cell中的代码运行很多次(通常是7次)后求平均值,因此运行%%timeit的时间会
    远远超过cell中的代码单独运行的时间
     
    #======【TIME WARNING:4 hours】======#
    %%timeit
    cross_val_score(KNN(),X,y,cv=5).mean()

    3. KNN方差过滤后

    #======【TIME WARNING:20 mins+】======#
    cross_val_score(KNN(),X_fsvar,y,cv=5).mean()
     
    #======【TIME WARNING:2 hours】======#
    %%timeit
    cross_val_score(KNN(),X,y,cv=5).mean()

    可以看出,对于KNN,过滤后的效果十分明显:准确率稍有提升,但平均运行时间减少了10分钟,特征选择过后算法的效率上升了1/3。那随机森林又如何呢?

    4. 随机森林方差过滤前

    cross_val_score(RFC(n_estimators=10,random_state=0),X,y,cv=5).mean()

     5. 随机森林方差过滤后

    cross_val_score(RFC(n_estimators=10,random_state=0),X_fsvar,y,cv=5).mean()

    首先可以观察到的是,随机森林的准确率略逊于KNN,但运行时间却连KNN的1%都不到,只需要十几秒钟。

    其次,方差过滤后,随机森林的准确率也微弱上升,但运行时间却几乎是没什么变化,依然是11秒钟。

    为什么随机森林运行如此之快?为什么方差过滤对随机森林没很大的有影响?

    这是由于两种算法的原理中涉及到的计算量不同。最近邻算法KNN,单棵决策树,支持向量机SVM,神经网络,回归算法,都需要遍历特征或升维来进行运算,所以他们本身的运算量就很大,需要的时间就很长,因此方差过滤这样的特征选择对他们来说就尤为重要。

    但对于不需要遍历特征的算法,比如随机森林,它随机选取特征进行分枝,本身运算就非常快速,因此特征选择对它来说效果平平。这其实很容易理解,无论过滤法如何降低特征的数量,随机森林也只会选取固定数量的特征来建模;而最近邻算法就不同了,特征越少,距离计算的维度就越少,模型明显会随着特征的减少变得轻量。
    因此,过滤法的主要对象是:需要遍历特征或升维的算法们,而过滤法的主要目的是:在维持算法表现的前提下,帮助算法们降低计算成本。

     对受影响的算法来说,我们可以将方差过滤的影响总结如下:

    在我们的对比当中,我们使用的方差阈值是特征方差的中位数,因此属于阈值比较大,过滤掉的特征比较多的情况。我们可以观察到,无论是KNN还是随机森林,在过滤掉一半特征之后,模型的精确度都上升了。
    这说明被我们过滤掉的特征在当前随机模式(random_state = 0)下大部分是噪音。那我们就可以保留这个去掉了一半特征的数据,来为之后的特征选择做准备。当然,如果过滤之后模型的效果反而变差了,我们就可以认为,被我们过滤掉的特征中有很多都有有效特征,那我们就放弃过滤,使用其他手段来进行特征选择。

    1.3 选取超参数threshold

    我们怎样知道,方差过滤掉的到底时噪音还是有效特征呢?过滤后模型到底会变好还是会变坏呢?

    答案是:每个数据集不一样,只能自己去尝试。这里的方差阈值,其实相当于是一个超参数,要选定最优的超参数,我们可以画学习曲线,找模型效果最好的点。但现实中,我们往往不会这样去做,因为这样会耗费大量的时间。我们只会使用阈值为0或者阈值很小的方差过滤,来为我们优先消除一些明显用不到的特征,然后我们会选择更优的特征选择方法继续削减特征数量。



  • 相关阅读:
    [转]在滴滴和头条干了 2 年后端开发,太真实…
    美团DB数据同步到数据仓库的架构与实践学习
    趣头条实时平台架构
    Spark Web UI 监控详解
    前端框架Vue入门
    Spark on Yarn详解
    Spark原理及关键技术点
    Flink应用程序结构开发介绍
    如何进行Flink项目构建,快速开发Flink应用程序?
    机器学习基础
  • 原文地址:https://www.cnblogs.com/qiu-hua/p/12981936.html
Copyright © 2020-2023  润新知