• Spark之RDD编程


    Transformation算子练习

    map(func)

    说明:返回一个新的RDD,该RDD由每一个输入元素结果func函数转换后组成

    mapPartitions(func)

    类似于map,但独立地在RDD的每一个分片上运行,因此在类型为T的RDD上运行时,func的函数类型必须是Iterator[T] => Iterator[U]。假设有N个元素,有M个分区,那么map的函数的将被调用N次,而mapPartitions被调用M次,一个函数一次处理所有分区

    glom

    将每一个分区形成一个数组,形成新的RDD类型时RDD[Array[T]]

    flatMap(func)

    类似于map,但是每一个输入元素可以被映射为0或多个输出元素(所以func应该返回一个序列,而不是单一元素)

    filter(func)

    返回一个新的RDD,该RDD由经过func函数计算后返回值为true的输入元素组成

    mapPartitionsWithIndex(func)

    类似于mapPartitions,但func带有一个整数参数表示分片的索引值,因此在类型为T的RDD上运行时,func的函数类型必须是(Int,Interator[T])=> Iterator[U]

    sample(withReplacement, fraction, seed)

    以指定的随机种子随机抽样出数量为fraction的数据,withReplacement表示是抽出的数据是否放回,true为有放回的抽样,false为无放回的抽样,seed用于指定随机数生成器种子。例子从RDD中随机且有放回的抽出50%的数据,随机种子值为3(即可能以1 2 3的其中一个起始值)

    distinct([numTasks])

    对源RDD进行去重启返回一个新的RDD,默认情况下,只有8个并行任务来操作,但是可以传入一个可选的numTasks参数改变它

    partitionBy

    对RDD进行分区操作,如果原有的partitionRDD和现有的partionRDD是一致的话就不进行分区,否则的话就会生成ShuffleRDD

    coalesce(numPartitions)

    与repartition的区别:repartition(numPartitions:Int) : RDD[T]和coalesce(numPartitions:Int,shuffle:Boolean=false):RDD[T] repartition只是coalesce接口中shuffle为true的实现,缩减分区数,用于大数据集过滤后,提高小数据集的执行效率。

    repartition(numPartitions)

    根据分区数,从新通过网络随机洗牌所有数据

    repartitionAndSortWithinPartitions(partitioner)

    repartitionAndSortWithinPartitions函数是repartition函数的变种,与reparation函数 不同的是

    repartitionAndSortWithinPartitions在给定的partitioner内部进行排序,性能比repartition要高

    sortBy(func,[ascending],[numTasks])

    用func先对数据进行处理,按照处理后的数据比较结果排序

    union(otherDataset)

    对源RDD和参数RDD求并集后返回一个新的RDD

    subtrac(otherDataset)

    计算差的一种函数,去除两个RDD中相同的元素,不同的RDD将保留下来

    intersection(otherDataset)

    对源RDD和参数RDD求交集后返回一个新的RDD

    cartesian(otherDataset) 

    求笛卡尔积

    pipe(command,[envVars])

    管道,对于每个分区,都执行一个perl或者shell脚本,返回输出的RDD

    join(otherDataset,[numTasks])

    在类型为(K,V)和(K,W)的RDD上调用,返回一个相同的key对应的所有元素对在一起的(K,(V,W))的RDD

     

    cogroup(otherDataset,[numTasks])

    在类型为(K,V)和(K,W)的RDD上调用,返回一个(K,(Iterable<V>,Iterable<W>))类型的RDD

    reduceBuKey(func,[numTasks])

    在一个(K,V的RDD上调用),返回一个(K,V)的RDD,使用指定的reduce函数,将相同的key的值聚合到一起,reduce任务的个数可以通过第二个可选的参数来设置

    groupByKey

    groupByKey也是对每一个key进行操作的,但只生成一个sequence

    CombineByKey[C]

    createCombiner:V => C, mergeValue:(C,V)=> C,margeCombiners:(C,C)=> C

    对相同K,把V合并成一个集合

    createCombiner:combineByKey()会遍历分区中的所有元素,因此每个元素的键要么还没有遇到过,要么就和之前的某个元素的键相同,如果这是一个新的元素,combineByKey()会使用一个叫做createCombiner()的函数来创建

    那个键对应的累加器的初始值

    margeValue:如果这是一个在处理当前分区之前已经遇到的键,它会使用mergeValue()方法将该键的累加器对应的当前值与这个新的值进行合并

    mergeCombiners:由于每一个分区都是独立处理的,因此对于同一个键可以有多个累加器。如果有两个或者更多的分区都有对应同一个键的累加器, 就需要使用用户提供的mergeCombiners()法将各个分区的结果进行合并。

    aggregateByKey

    (zeroValue:U,[partitioner: Partitioner]) (seqOp: (U, V) => U,combOp: (U, U) => U)
    在kv对的RDD中,,按key将value进行分组合并,合并时,将每个value和初始值作为seq函数的参数,进行计算,返回的结果作为一个新的kv对,然后再将结果按照key进行合并,最后将每个分组的value传递给combine函数进行计算(先将前两个value进行计算,将返回结果和下一个value传给combine函数,以此类推),将key与计算结果作为一个新的kv对输出。
    seqOp函数用于在每一个分区中用初始值逐步迭代value,combOp函数用于合并每个分区中的结果。

    foldByKey

    (zeroValue: V)(func: (V, V) => V): RDD[(K, V)]
    aggregateByKey的简化操作,seqop和combop相同

    sortByKey

    在一个(K,V)的RDD上调用,K必须实现Ordered接口,返回一个按照key进行排序的(K,V)的RDD

    mapValues

    针对于(K,V)形式的类型只对V进行操作

  • 相关阅读:
    服务器内部模拟Http请求
    面试题分类
    Linux常用命令
    css补充之hover与overflow
    css之position
    css边框及float、display样式
    css存在形式及优先级
    css选择器
    body标签之fieldest与label标签
    body内标签之table标签
  • 原文地址:https://www.cnblogs.com/IT_CH/p/12753750.html
Copyright © 2020-2023  润新知