• Spark ML中的特征转换算法——OneHotEncoder


    一、为什么要用独热编码?

    在很多机器学习任务中,特征并不总是连续值,而有可能是分类值。

    离散特征的编码分为两种情况:

    1、离散特征的取值之间没有大小的意义,比如color:[red,blue],那么就使用one-hot编码

    2、离散特征的取值有大小的意义,比如size:[X,XL,XXL],那么就使用数值的映射{X:1,XL:2,XXL:3}

    例如,考虑一下的三个特征:

    ["male", "female"]
    
    ["from Europe", "from US", "from Asia"]
    
    ["uses Firefox", "uses Chrome", "uses Safari", "uses Internet Explorer"]

    如果将上述特征用数字表示,效率会高很多。例如

    ["male", "from US", "uses Internet Explorer"] 表示为[0, 1, 3]
    
    ["female", "from Asia", "uses Chrome"]表示为[1, 2, 1]

    但是,即使转化为数字表示后,上述数据也不能直接用在我们的分类器中。因为,分类器往往默认数据数据是连续的(可以计算距离?),并且是有序的(而上面这个0并不是说比1要高级)。但是,按照我们上述的表示,数字并不是有序的,而是随机分配的。

    为了解决上述问题,其中一种可能的解决方法是采用独热编码(One-Hot Encoding)。独热编码即 One-Hot 编码,又称一位有效编码,其方法是使用N位状态寄存器来对N个状态进行编码,每个状态都由他独立的寄存器位,并且在任意时候,其中只有一位有效。

    例如:

    自然状态码为:000,001,010,011,100,101
    独热编码为:000001,000010,000100,001000,010000,100000

    可以这样理解,对于每一个特征,如果它有m个可能值,那么经过独热编码后,就变成了m个二元特征。如上例所示,自然码有6个状态,每个状态都可以由6位的独热编码(0、1)解释。

    并且,这些特征互斥,每次只有一个激活。因此,数据会变成稀疏的。

    这样做的好处主要有:

    • 解决了分类器不好处理属性数据的问题
    • 在一定程度上也起到了扩充特征的作用

    二、独热编码

      独热编码(是因为大部分算法是基于向量空间中的度量来进行计算的,为了使非偏序关系的变量取值不具有偏序性,并且到原点是等距的。使用one-hot编码,将离散特征的取值扩展到了欧式空间,离散特征的某个取值就对应欧式空间的某个点。将离散型特征使用one-hot编码,会让特征之间的距离计算更加合理。离散特征进行one-hot编码后,编码后的特征,其实每一维度的特征都可以看做是连续的特征。就可以跟对连续型特征的归一化方法一样,对每一维特征进行归一化。比如归一化到[-1,1]或归一化到均值为0,方差为1。

      将离散特征通过one-hot编码映射到欧式空间,是因为,在回归,分类,聚类等机器学习算法中,特征之间距离的计算或相似度的计算是非常重要的,而我们常用的距离或相似度的计算都是在欧式空间的相似度计算,计算余弦相似性,基于的就是欧式空间。

    • 优点:独热编码解决了分类器不好处理属性数据的问题,在一定程度上也起到了扩充特征的作用。它的值只有0和1,不同的类型存储在垂直的空间。
    • 缺点:当类别的数量很多时,特征空间会变得非常大。在这种情况下,一般可以用PCA来减少维度。而且one hot encoding+PCA这种组合在实际中也非常有用。
    • 适合用的场景:独热编码用来解决类别型数据的离散值问题;
    • 不适用的场景:将离散型特征进行one-hot编码的作用,是为了让距离计算更合理,但如果特征是离散的,并且不用one-hot编码就可以很合理的计算出距离,那么就没必要进行one-hot编码。有些基于树的算法在处理变量时,并不是基于向量空间度量,数值只是个类别符号,即没有偏序关系,所以不用进行独热编码。 Tree Model不太需要one-hot编码: 对于决策树来说,one-hot的本质是增加树的深度。
    • 需要归一化:基于参数的模型或基于距离的模型,都是要进行特征的归一化;
    • 不用归一化:基于树的方法是不需要进行特征的归一化,例如随机森林,bagging 和 boosting等。

    三、独热编码使用示例

      One-hot 编码将表示为标签索引的分类特征映射到二进制向量,该向量最多具有一个单值,表示所有特征值集中存在特定特征值。 这种编码允许期望连续特征的算法(例如逻辑回归)使用分类特征。 对于字符串类型的输入数据,通常首先使用 StringIndexer 对分类特征进行编码。

      OneHotEncoder 可以转换多个列,为每个输入列返回一个单热编码的输出向量列。 通常使用 VectorAssembler 将这些向量合并为单个特征向量。

      OneHotEncoder 支持 handleInvalid 参数来选择在转换数据时如何处理无效输入。 可用选项包括“keep”(任何无效输入都分配给额外的分类索引)和“error”(抛出错误)。

    %spark
    // 特征转换 —— —— OneHotEncoder
    // 一种单热编码器又称一位有效编码,其方法是使用N位状态寄存器来对N个状态进行编码,每个状态都有它独立的寄存器位,并且在任意时候,其中只有一位有效。
    // 可以这样理解,对于每一个特征,如果它有m个可能值,那么经过独热编码后,就变成了m个二元特征。并且,这些特征互斥,每次只有一个激活。因此,数据会变成稀疏的。
    // 作用:将离散的分类特征转换为数字表示的特征
    // 这样做的好处:1、解决了分类器不好处理属性数据的问题;2、在一定程度上也起到了扩充特征的作用。
    
    import org.apache.spark.ml.feature.OneHotEncoder
    
    val df = spark.createDataFrame(Seq(
      (0.0, 1.0),
      (1.0, 0.0),
      (2.0, 1.0),
      (0.0, 2.0),
      (0.0, 1.0),
      (2.0, 0.0)
    )).toDF("categoryIndex1", "categoryIndex2")
    
    val encoder = new OneHotEncoder()
      .setInputCols(Array("categoryIndex1", "categoryIndex2"))
      .setOutputCols(Array("categoryVec1", "categoryVec2"))
    //   用于在 transform() 期间如何处理无效数据的参数。 选项是“keep”(无效数据显示为额外的分类特征)或“error”(抛出错误)。 请注意,此参数仅在转换期间使用; 在拟合过程中,无效数据将导致错误。 默认是error
    //   .setHandleInvalid("keep")
    //   是否删除编码向量中的最后一个类别(默认值:true) 
      .setDropLast(false)
    val model = encoder.fit(df)
    
    val encoded = model.transform(df)
    encoded.show()
    
    输出:(稀疏矩阵)
    +--------------+--------------+-------------+-------------+
    |categoryIndex1|categoryIndex2| categoryVec1| categoryVec2|
    +--------------+--------------+-------------+-------------+
    |           0.0|           1.0|(3,[0],[1.0])|(3,[1],[1.0])|
    |           1.0|           0.0|(3,[1],[1.0])|(3,[0],[1.0])|
    |           2.0|           1.0|(3,[2],[1.0])|(3,[1],[1.0])|
    |           0.0|           2.0|(3,[0],[1.0])|(3,[2],[1.0])|
    |           0.0|           1.0|(3,[0],[1.0])|(3,[1],[1.0])|
    |           2.0|           0.0|(3,[2],[1.0])|(3,[0],[1.0])|
    +--------------+--------------+-------------+-------------+
  • 相关阅读:
    MyBatis-Plus之多租户架构(Multi-tenancy)——SAAS
    spring-data-mybatis-mini
    mybatis-plus
    JPA/Hibernate组合的映射,实体继承的映射
    JPA(Java Persistence API)--JavaEE5.0标准ORM规范
    spring data jpa
    mybatis笔记(二)多表关联映射、延迟加载、一级二级缓存、整合ehcache、spring整合mybatis
    mybatis笔记(一)入门程序、dao开发方式、mapper开发方式、全局配置文件、映射文件、动态sql
    Spring 事务处理、整合web
    Spring JdbcTemplate
  • 原文地址:https://www.cnblogs.com/Ao0216/p/15974916.html
Copyright © 2020-2023  润新知