• 020 Spark中分组后的TopN,以及Spark的优化(重点)


    一:准备

    1.源数据

      

    2.上传数据

      

    二:TopN程序编码

    1.程序

      1 package com.ibeifeng.bigdata.spark.core
      2 
      3 import java.util.concurrent.ThreadLocalRandom
      4 
      5 import org.apache.spark.{SparkConf, SparkContext}
      6 
      7 /**
      8   * 分组TopN:按照第一个字段分组;同一组中,按照第二个字段进行排序;每一组中,获取出现最多的前K个数据。
      9   * Created by ibf on 01/15.
     10   */
     11 object GroupedTopN {
     12   def main(args: Array[String]): Unit = {
     13     val conf = new SparkConf()
     14       .setMaster("local[*]")
     15       .setAppName("grouped-topn")
     16       //.set("spark.eventLog.enabled", "true")
     17       //.set("spark.eventLog.dir", "hdfs://hadoop-senior01:8020/spark-history")
     18 
     19     val sc = SparkContext.getOrCreate(conf)
     20 
     21     // ==========具体代码逻辑========================
     22     // 原始数据存储的路径, 需要自己上传
     23     val path = "/user/beifeng/spark/groupedtopk/groupsort.txt"
     24     val K = 3
     25 
     26     // 构建rdd
     27     val rdd = sc.textFile(path)
     28 
     29     // rdd操作
     30     val word2CountRDD = rdd
     31       .filter((line: String) => {
     32         // 过滤空字符串,所以非空的返回true
     33         !line.isEmpty
     34       })
     35       .map(line => {
     36         // 按照空格分隔字段
     37         val arr = line.split(" ")
     38         // 将数据转换为二元组
     39         (arr(0), arr(1).toInt)
     40       })
     41 
     42     // 如果一个RDD被多次使用,该RDD需要进行缓存操作
     43     word2CountRDD.cache()
     44 
     45     // 直接使用groupByKey函数进行统计,这种方式存在OOM的情况
     46     /*
     47     val resultRDD = word2CountRDD
     48       .groupByKey() // 按照第一个字段进行分组
     49       .map(tuple => {
     50       // 同一组的数据中获取前K个元素
     51       // 获取对应分组
     52       val word = tuple._1
     53       // 获取前K个元素(最大的k个元素), list默认排序是升序, 所以采用takeRight从后往前获取K个元素(此时的K个元素就是最大的K个元素); 最后对K个元素进行反转,最终结果元素是从大到小排序的
     54       val topk = tuple._2.toList.sorted.takeRight(K).reverse
     55       // 返回结果
     56       (word, topk)
     57     })
     58     */
     59 
     60     /*
     61     * groupByKey存在OOM异常
     62     * 解决方案:采用两阶段聚合操作
     63     * 两阶段聚合可以解决的一些常见:
     64     *   1. 聚合操作中存储的OOM异常
     65     *   2. 聚合操作中存在的数据倾斜问题
     66     * 聚合操作:分区、排序、reduceByKey.....
     67     * */
     68     val random = ThreadLocalRandom.current()
     69     val resultRDD2 = word2CountRDD
     70       .map(tuple => {
     71         // 第一阶段第一步:在key前加一个随机数
     72         ((random.nextInt(100), tuple._1), tuple._2)
     73       })
     74       .groupByKey() // 第一阶段的第二步:按照修改后的key进行聚合操作
     75       .flatMap(tuple => {
     76       // 第一阶段的第三步:对一组value进行聚合操作
     77       // 获取对应分组
     78       val word = tuple._1._2
     79       // 获取前K个
     80       val topk = tuple._2.toList.sorted.takeRight(K).reverse
     81       // 返回结果
     82       topk.map(count => (word, count))
     83     })
     84       .groupByKey() // 第二阶段第一步:按照原本的key进行聚合操作
     85       .map(tuple => {
     86       // 第二阶段第二步: 获取前k个元素
     87       val word = tuple._1
     88       val topk = tuple._2.toList.sorted.takeRight(K).reverse
     89       // 返回结果
     90       (word, topk)
     91     })
     92 
     93 
     94     // 结果输出
     95     resultRDD2.foreach(println)
     96     /*
     97     resultRDD2.foreachPartition(iter => {
     98       // foreachPartition该函数常用于将RDD的数据输出到第三方的数据存储系统中,比如:redis、mongoDB
     99       /*
    100       * 1. 创建连接
    101       * 2. 对iter进行迭代,进行数据输出
    102       * 3. 关闭连接
    103       * */
    104       iter.foreach(println)
    105     })
    106     */
    107 
    108     // 如果RDD有cache,需要去除cache
    109     word2CountRDD.unpersist()
    110 
    111     // ==========具体代码逻辑========================
    112 
    113     sc.stop()
    114   }
    115 }

    2.结果

      

    3.注意点

      Spark中不支持二次排序,如果想实现二次排序,需要根据业务的执行逻辑使用两阶段聚合来进行操作

    二:优化

    1.两阶段聚合

      

  • 相关阅读:
    UI
    OC之block
    web前端开发学习
    OC面向对象下之文件
    UIButton
    视图
    frame和bounds
    UIView
    UIWindow
    Hello friends!
  • 原文地址:https://www.cnblogs.com/juncaoit/p/6398937.html
Copyright © 2020-2023  润新知