• Spark Streaming运行流程及源码解析(一)


    本系列主要描述Spark Streaming的运行流程,然后对每个流程的源码分别进行解析

    之前总听同事说Spark源码有多么棒,咱也不知道,就是疯狂点头。今天也来撸一下Spark源码。

    对Spark的使用也就是Spark Streaming使用的多一点,所以就拿Spark Streaming开涮。
    搞起

    源码中的一些类

    这里先列举一些源码中的类,大家先预热一下。

    StreamingContext:这是Spark Streaming程序的入口,提供了运行时上下文环境

    DStream:是RDD在Spark Streaming中的实现,是连续的RDD(相同类型)序列,表示连续的数据流

    JobScheduler:生成和调度job

    DStreamGraph:保存DStream之间的依赖关系

    JobGenerator:根据DStream依赖生成job

    ReceiverTracker:Driver端用于管理ReceiverInputDStreams执行的管家

    EventLoop:一个事件循环,用于接收来自调用方的事件并处理事件线程中的所有事件。它将启动一个专用事件线程来处理所有事件。内部使用LinkedBlockingDeque实现。

    RecurringTimer:相当于一个定时器,定时执行某个函数

    ReceiverSupervisor:Executor端管理Receiver的管家

    Receiver:在Executor节点上运行以接收外部数据。

    InputDStream:接收外部数据

    ReceiverInputDStream:用于定义必须在工作节点上启动接收器以接收外部数据的类,可以通过它获得Receiver

    BlockGenerator:根据时间间隔将接收到的数据生成块

    RpcEndpoint:RPC终端点,Spark Streaming中使用Netty进行RPC通信

    ReceiverTrackerEndpoint:Driver端的ReceiverTracker终端,用于和Receiver通信

    运行流程

    Spark Streaming运行时由Driver和Executor相互协调完成。

    Driver端创建StreamingContext,其中包含了DStreamGraphJobScheduler(它又包括了ReceiverTrackerJobGenerator),Driver主要负责生成调度job、与execuor进行交互、指导工作。

    Eexcutor主要有ReceiverSupervisorReceiverBlockManagerBlockGenerator,Executor负责数据的接收和存储、任务的执行。

    以下是Spark Streaming运行架构图,可以先大致看一下,等待会看完运行流程再回来看一遍。
    Spark Streaming运行流程
    从接收数据到处理完成具体可划分为以下四步:

    启动流处理引擎

    创建并启动StreamingContext对象,其中维护了DStreamGraph和JobScheduler实例。

    DStreamGraph用来定义DStream,并管理他们的依赖关系。

    JobScheduler用来生成和调度job,其中维护了ReceiverTracker和JobGenerator实例。

    ReceiverTracker是Driver端的Receiver管理者,负责在Executor中启动ReceiverSupervisor并与之通信,ReceiverSupervisor会启动Receiver进行接收消息。

    JobGenerator用来生成Job。

    每个实例都各司其职,在启动时都会调用其start方法,开始运转。

    接收并存储数据

    Executor端的Receiver启动后不断的接收消息,并调用其store()方法将数据存储。

    store方法最终会调用ReceiverSupervisorImpl.pushAndReportBlock()将数据进行存储,并汇报给Driver端的ReceiverTrackerEndpoint。

    这里有一个重要的类:BlockGenerator,其使用ArrayBuffer对接收到的单条数据进行暂存。

    BlockGenerator还有一个定时器,按批处理间隔定时将ArrayBuffer中的数据封装为Block,并将Block存到一个ArrayBlockingQueue队列中。

    BlockGenerator中还启动了一个线程从ArrayBlockingQueue中取出Block,调用ReceiverSupervisorImpl.pushAndReportBlock()进行存储,并与Driver端汇报。

    处理数据

    处理数据就是生成job、执行job。

    首先在JobGenerator中维护了一个定时器,每当批处理间隔到达时,发起GenerateJobs指令,调用generateJobs生成&执行job。

    generateJobs方法中会让ReceiverTracker分配本批次对应的数据,然后让DStreamGraph根据DStream的依赖生成job;job生成成功的话会调用submitJobSet提交执行job,然后执行job。

    我们编写的业务处理代理代码,会在生成job时作为参数参进去。

    输出数据

    job执行后会根据我们写的代码执行输出。

    end...

    至此,就大致梳理了一下整体流程。

    接下来再详细的撸一下每一步的源码。

    Spark Streaming源码运行流程解析

    reference

    《图解Spark核心技术与案例实战》,首先推荐一下这本书,对于理解Spark有很大帮助。

    https://www.cppentry.com/bencandy.php?fid=116&id=209107,这个是Spark Streaming源码解析的系列文章,讲的也很清晰

    http://ddrv.cn/a/250847 Spark Streaming运行架构图来源



    个人公众号:码农峰,定时推送行业资讯,持续发布原创技术文章,欢迎大家关注。

  • 相关阅读:
    Java--笔记(4)
    Java--笔记(3)
    Java--笔记(2)
    Java--笔记(1)
    Java--剑指offer(10)
    Java--剑指offer(9)
    网络基础面试常考知识点
    Java--剑指offer(8)
    Keil C51 的printf
    C语言中以十六进制输出字符型变量会出现'ffffff"的问题
  • 原文地址:https://www.cnblogs.com/upupfeng/p/12325190.html
Copyright © 2020-2023  润新知