• Spark Streaming揭秘 Day27 Job产生机制


    Spark Streaming揭秘 Day27

    Job产生机制

    今天主要讨论一个问题,就是除了DStream action以外,还有什么地方可以产生Job,这会有助于了解Spark Streaming的本质。

    我们从一个print方法触发,来看一下常用的action操作方式:

    传统流程

    一般来说,产生Job需要DStream的action操作,比如print方法

    第一步,在print方法中,返回了一个ForeachDStream
    Snip20160618_11

    第二步,在ForeachDStream中,通过被DStreamGraph调用generateJob方法,构造了运行的Job,但此时Job并未被调用。

    Snip20160618_10

    第三步,在JobGenerator中,执行Job中的内容。

    Snip20160618_13

    例外流程

    是不是只有在foreachRDD之类outputDStream的操作中才能产生Job的执行? 让我们来看下transform这个方法。这个方法对当前DStream上的RDD执行某种操作,以RDD为输入,产生一个新的RDD。

    请看一下这个方法中compute方法的实现:
    transformFunc是构造时传进来的,这个方法在这里会执行,也就说,在这里我们可以进行任意操作,包括执行Job!!!

    Snip20160618_14

    也就是说,如果在调用transform方法的transformFunc里有action的操作,就会绕过上述传统流程的第三步,精简为两步来执行Job。这个方法的本意是提供一些DStream不支持的操作,但实际是个后门。

    这个方法灵活性很高,可以让我们提前获得结果,这个意义是很大的,使用这个特性可以做出一些很巧妙的效果。直接调用意味着每一步都能直接获取结果,那么就可以基于前面的结果进行判断,然后进行后面的操作,比如如下操作。

    lines.transform( rdd => {
          if (rdd.count > 0) {
            sqc.jsonRDD(rdd).registerTempTable("logstash")
            val sqlreport = sqc.sql("SELECT message, COUNT(message) AS host_c, AVG(lineno) AS line_a FROM logstash WHERE path = '/var/log/system.log' AND lineno > 70 GROUP BY message ORDER BY host_c DESC LIMIT 100")
            sqlreport.map(r => (r(0).toString -> Status(r(2).toString.toDouble, r(1).toString.toInt)))
          } else {
            rdd.map(l => ("" -> Status()))
          }
        })
    

    很明显,transform中的方法内容更为丰富,这个可以突破DStream上方法都是单一职责的限制。

    欲知后事如何,且听下回分解!

    DT大数据每天晚上20:00YY频道现场授课频道68917580

  • 相关阅读:
    编译安装mysql-5.6.36
    MYSQL数据库基础篇
    MYSQL数据库初学者必看
    Centos7下安装与卸载Jdk1.8
    Linux与Window之间的上传与下载
    MySQL主从搭建
    zabbix通过插件percona进行监控MySQL
    suse系统关闭防火墙
    编译安装zabbix3.0
    centos7安装tomcat
  • 原文地址:https://www.cnblogs.com/dt-zhw/p/5596968.html
Copyright © 2020-2023  润新知