• [Spark]-Streaming-操作


    1.概论

      在Spark Streaming中,流数据被抽象有DStream.DStream本质是RDD(一批一批的RDD).

      所以Spark Streaming操作本质是RDD操作=>转换和操作,并且带有RDD操作的一切特征.(lazy等等)

    2.DStream-转换(Transformations)

      2.1 map(func)

         利用函数 func 处理原 DStream 的每个元素,返回一个新的 DStream

      2.2 flatMap(func)

        与map类似,但结果会扁平化.即如果结果是迭代器容器的,会将元素从容器中取出再返回

      2.3 filter(func)

        返回一个新的 DStream,它仅仅包含原 DStream 中函数 func 返回值为 true 的项

      2.4 repartition(numPartitions)

        创建更多或者更少的分区(partition),这将改变这个 DStream 的并行级别

      2.5 union(otherStream)

        返回一个新的 DStream,它包含源 DStream 和 otherDStream 的所有元素.(不去重)

      2.6 count()

        返回DStream的元素数量,注意:DStream中的Count返回不是直接结果,而是一个包含结果的单元素 DStream

      2.7 reduce(func)

        利用函数 func 聚集源 DStream 中每个 RDD 的元素,返回一个包含单元素(single-element)RDDs 的新 DStream。函数应该是相关联的,以使计算可以并行化

      2.8 reduceByKey(func, [numTasks])

        必须运行在 (K,V)组成的 DStream 中,聚合方式为按key分组,再在每个key分组内执行func进行聚合.返回的元素数量等于key的去重数量.

        numTasks 可以设置执行聚合操作的任务数(默认:spark.default.parallelism)

      2.9 countByValue()

        当调用K类型元素的DStream时,返回(K, Long)对的新DStream,其中每个键的值都是源DStream的每个RDD中的个数,

      2.10 join(otherStream, [numTasks])

        只能运行在两个(K,V)组成的 DStream中,返回两个DStream中Key匹配的记录.

      2.11 cogroup(otherStream, [numTasks])

        当调用DStream (K, V)和(K, W)对时,返回一个新的DStream (K, Seq[V], Seq[W])元组

      2.12 transform(func)

        对源DStream的每个RDD应用Rdd-To -RDD函数来返回一个新的DStream。这可以用于在DStream上执行任意的RDD操作

      2.13 updateStateByKey(func)

        updateStateByKey 是在Streaming体系下,一个用来处理涵盖有历史数据等必须维护数据状态的非常重要的函数.

        随着时间的流逝,在Spark Streaming可以为每个Key通过checkpoint来维护一份state状态(这里的state状态,可以是任意的数据结构).然后通过更新函数对该key状态不断的更新.

        在一个新批次的数据进入后,会对新数据执行更新函数并将结果与老数据进行合并..并且如果最终通过更新函数返回了None值,该Key的State状态会被清除.

        

        因为涉及到对每个Key的state状态的不断更新,就会涉及到状态的保存,所以在updateStateByKey使用中,是必须激活checkpoint的

        一个Spark Streaming下借用updateStateByKey完成类似结构化流的基于事件时间+水印延时的demo:

        

            import java.text.SimpleDateFormat
            import java.util.{Calendar, Date, TimeZone}
    
            import org.apache.log4j.{Level, Logger}
            import org.apache.spark.sql.SparkSession
            import org.apache.spark.streaming.{Seconds, StreamingContext}
    
            /**
              * Spark Streaming 模拟结构化流中 基于事件时间的Window+WaterMark 完成WorkCount功能
              *   个人理解在生产中 基于事件时间处理和数据延时到达 是一种必然要求 在没有或无法启用结构化流的情况下,尝试以Spark Streaming 完成
              *
              * 核心计算过程:
              *   1.StreamingWindowWatermarkUtils.windowTime 计算出 依据输入数据的事件时间,应该落入的窗口范围
              *   2.按照(窗口范围+word)分组,统计本批次的基于窗口的WordCount计算结果
              *   3.将本批次的计算结果与CheckPoint中的历史结果合并,策略如下:
              *       对没有在本批次出现的其它历史记录
              *         判断其word窗口是否处于水印有效期中,如果是则保留,否则移除(水印过期)
              *       对本批次的结果
              *         如果当前结果已过期,历史记录已过期 则移除   <=(水印过期)
              *         如果当前结果已过期,历史记录未过期 则保留历史记录  <=(当前结果水印过期)
              *         如果当前结果未过期,历史记录已过期 则将当前结果覆盖历史记录   <=(历史记录水印过期)
              *         如果当前结果未过期,历史记录未过期 则合并(累加)当前结果和历史记录
              *
              */
            object StreamingWindowWatermarkApp extends App {
    
              val dateFormat = new SimpleDateFormat("yyyy-MM-dd#HH:mm:ss");
              dateFormat.setTimeZone(TimeZone.getTimeZone("Asia/Shanghai"))
    
              Logger.getLogger("org.apache.spark").setLevel(Level.ERROR)
              val spark = SparkSession
                .builder()
                .appName("streaming-window-watermark-app")
                .master("local[2]")
                .config("spark.shuffle.sort.bypassMergeThreshold", 2)
                .getOrCreate()
    
              import spark.implicits._;
              import StreamingWindowWatermarkUtils._;
    
              val ssc = new StreamingContext(spark.sparkContext, Seconds(5))
              //这里必须是HDFS,开发环境中先用本地文件系统替代下
              ssc.checkpoint("D:\data\StremingCheckpoint\StreamingApp")
    
              val inputs = ssc.socketTextStream("127.0.0.1", 9999)
    
    
              //输入格式化
              case class InputRow(id: Long, word: String, time: Date)
              val inputRows = inputs
                .flatMap(_.split(" "))
                .map(_.split("\|"))
                .map(rowSpt => try {
                  InputRow(rowSpt(0).toLong, rowSpt(1), dateFormat.parse(rowSpt(2)))
                } catch {
                  case ex:Throwable => InputRow(0,ex.getMessage , null)
                })
    
    
              //计算过程
              case class ComputeRow(word: String,winStartTime:Date,winEndTime: Date, count: Int)
              val windowDuration = 60 //窗口范围1分钟
              val waterMarkDuration = 60*3 //水印持续3分钟
    
              val noneResultMerge = (historyOpt: Option[ComputeRow])=>
                historyOpt match {
                  case None => None
                  case Some(history) => if (isWaterMarkExpired(history.winEndTime, waterMarkDuration)) {  None }
                  else { Some(history) }
                }
    
              val existsResultMerge = (values: Seq[ComputeRow], historyOpt: Option[ComputeRow])=>{
                val value = values.headOption.getOrElse(null)
                val computeValues = values.filter(value=> !isWaterMarkExpired(value.winEndTime, waterMarkDuration)).map(value=>value.count)
                historyOpt match {
                  case None =>
                    if (computeValues.length == 0) {
                      None
                    }
                    else {
                      Some(ComputeRow(value.word, value.winStartTime, value.winEndTime, computeValues.sum))
                    }
                  case Some(history) =>
                    if (isWaterMarkExpired(history.winEndTime, waterMarkDuration)) {
                      Some(ComputeRow(value.word, value.winStartTime, value.winEndTime, computeValues.sum))
                    }
                    else {
                      Some(ComputeRow(value.word, value.winStartTime, value.winEndTime, computeValues.sum + history.count))
                    }
                }
    
              }
    
              val computeRows = inputRows
                .filter(row => row.id > 0 && !isWaterMarkExpired(row.time, waterMarkDuration))
                .map(row => {
                  val winTime = windowTime(row.time, windowDuration)
                  val windowKey = s"${row.word}|${winTime._1}|${winTime._2}"
                  (windowKey, ComputeRow(row.word,winTime._1,winTime._2, 1))
                })
                //本批次计算WordCount
                .reduceByKey((v1, v2) => ComputeRow(v1.word,v1.winStartTime,v1.winEndTime, v1.count + v2.count))
                //本批次计算结果与历史记录合并
                .updateStateByKey((values: Seq[ComputeRow], stateOpt: Option[ComputeRow]) => {
                  if(values.length == 0){
                    noneResultMerge(stateOpt)
                  }
                  else {
                    existsResultMerge(values,stateOpt)
                  }
                })
    
              //结果输出
              computeRows.print();
    
              /**
                *  运行演示如下
                  2018-07-13 23:55:35 输入数据如下:
                    1|aaa|2018-07-13#23:53:31
                    1|aaa|2018-07-13#23:53:21
                    1|aaa|2018-07-13#23:53:11
                    1|aaa|2018-07-13#23:53:01
                    1|aaa|2018-07-13#23:55:01
                    1|aaa|2018-07-13#23:55:01
                  计算触发3秒,窗口范围1分钟,水印延时3分钟,计算结果如下:
                  -------------------------------------------
                  Time: 1531497335000 ms   2018-07-13 23:55:35 (23:53:31,23:55:01都参与计算,23:53:31视为到23:55:35才到达的延时数据)
                  -------------------------------------------
                  (aaa|Fri Jul 13 23:55:00 CST 2018|Fri Jul 13 23:56:00 CST 2018,ComputeRow(aaa,Fri Jul 13 23:55:00 CST 2018,Fri Jul 13 23:56:00 CST 2018,1))
                  (aaa|Fri Jul 13 23:53:00 CST 2018|Fri Jul 13 23:54:00 CST 2018,ComputeRow(aaa,Fri Jul 13 23:53:00 CST 2018,Fri Jul 13 23:54:00 CST 2018,4))
                  -------------------------------------------
                  Time: 1531497415000 ms  2018-07-13 23:56:55
                  -------------------------------------------
                  (aaa|Fri Jul 13 23:55:00 CST 2018|Fri Jul 13 23:56:00 CST 2018,ComputeRow(aaa,Fri Jul 13 23:55:00 CST 2018,Fri Jul 13 23:56:00 CST 2018,2))
                  (aaa|Fri Jul 13 23:53:00 CST 2018|Fri Jul 13 23:54:00 CST 2018,ComputeRow(aaa,Fri Jul 13 23:53:00 CST 2018,Fri Jul 13 23:54:00 CST 2018,4))
                  -------------------------------------------
                  Time: 1531497420000 ms  2018-07-13 23:57:00 (23:53:31 离开计算,因为水印只延时到23:54:00,再之前已视为无效数据)
                  -------------------------------------------
                  (aaa|Fri Jul 13 23:55:00 CST 2018|Fri Jul 13 23:56:00 CST 2018,ComputeRow(aaa,Fri Jul 13 23:55:00 CST 2018,Fri Jul 13 23:56:00 CST 2018,2))
                  -------------------------------------------
                  Time: 1531497535000 ms 2018-07-13 23:58:55
                  -------------------------------------------
                  (aaa|Fri Jul 13 23:55:00 CST 2018|Fri Jul 13 23:56:00 CST 2018,ComputeRow(aaa,Fri Jul 13 23:55:00 CST 2018,Fri Jul 13 23:56:00 CST 2018,2))
                  -------------------------------------------
                  Time: 1531497540000 ms 2018-07-13 23:59:00 (所有数据都已离开)
                  -------------------------------------------
                */
    
              ssc.start()
              ssc.awaitTermination();
              spark.close();
            }
            object StreamingWindowWatermarkUtils {
    
              /**
                * 指定时间是否水印过期
                * @return true:已过期  false:未过期
                */
              def isWaterMarkExpired(targetTime: Date, waterMarkDuration: Int): Boolean = {
                return targetTime.getTime < waterMarkExpired(waterMarkDuration).getTime
              }
    
              /**
                * 获取当前的水印过期时间点
                */
              def waterMarkExpired(waterMarkDuration: Int): Date = {
                val waterMarkExpired: Calendar = Calendar.getInstance()
                waterMarkExpired.add(Calendar.SECOND, -waterMarkDuration)
                waterMarkExpired.getTime
              }
    
              /**
                * 计算指定时间的窗口范围
                * 一个窗口长度为2秒的连续10秒窗口范围计算如下:
                  计算时间:2018-07-13#23:00:01 窗口范围:2018-07-13#23:00:00 -> 2018-07-13#23:00:02
                  计算时间:2018-07-13#23:00:02 窗口范围:2018-07-13#23:00:02 -> 2018-07-13#23:00:04
                  计算时间:2018-07-13#23:00:03 窗口范围:2018-07-13#23:00:02 -> 2018-07-13#23:00:04
                  计算时间:2018-07-13#23:00:04 窗口范围:2018-07-13#23:00:04 -> 2018-07-13#23:00:06
                  计算时间:2018-07-13#23:00:05 窗口范围:2018-07-13#23:00:04 -> 2018-07-13#23:00:06
                  计算时间:2018-07-13#23:00:06 窗口范围:2018-07-13#23:00:06 -> 2018-07-13#23:00:08
                  计算时间:2018-07-13#23:00:07 窗口范围:2018-07-13#23:00:06 -> 2018-07-13#23:00:08
                  计算时间:2018-07-13#23:00:08 窗口范围:2018-07-13#23:00:08 -> 2018-07-13#23:00:10
                  计算时间:2018-07-13#23:00:09 窗口范围:2018-07-13#23:00:08 -> 2018-07-13#23:00:10
                  计算时间:2018-07-13#23:00:10 窗口范围:2018-07-13#23:00:10 -> 2018-07-13#23:00:12
                * @return (windowStart,windowEnd)
                */
              def windowTime(targetTime: Date, windowDuration: Long): (Date, Date) = {
                val start = new Date(targetTime.getTime - (targetTime.getTime % (windowDuration * 1000)))
                val end = new Date(start.getTime + windowDuration * 1000)
                return (start, end)
              }
            }
  • 相关阅读:
    docker curl: (56) Recv failure: Connection reset by peer
    计算机网络,路由与DNS演示
    python向mysql插入自增字段
    洛谷P1516 青蛙的约会
    电子海图开发第三十八篇 , s57,s52标准电子海图,条件符号程序(共一百篇)
    电子海图开发第三十七篇 , s57,s52标准电子海图,绘制面命令及其示例(共一百篇)
    电子海图开发第三十六篇 , s57,s52标准电子海图,绘制线命令及其示例(共一百篇)
    电子海图开发第三十五篇 , s57,s52标准电子海图,绘制点命令及其示例(共一百篇)
    电子海图开发第三十四篇 , s57,s52标准电子海图,文本的绘制示例(共一百篇)
    电子海图开发第三十三篇 , s57,s52标准电子海图,文本的绘制(共一百篇)
  • 原文地址:https://www.cnblogs.com/NightPxy/p/9292075.html
Copyright © 2020-2023  润新知