• Spark学习--SparkCore03


    Spark底层逻辑

    Spark部署

     针对于上图, 可以看到整体上在集群中运行的角色有如下几个:

    • Master Daemon

      负责管理 Master 节点, 协调资源的获取, 以及连接 Worker 节点来运行 Executor, 是 Spark 集群中的协调节点

    • Worker Daemon

      Workers 也称之为叫 Slaves, 是 Spark 集群中的计算节点, 用于和 Master 交互并管理 Executor.

      当一个 Spark Job 提交后, 会创建 SparkContext, 后 Worker 会启动对应的 Executor.

    • Executor Backend

      上面有提到 Worker 用于控制 Executor 的启停, 其实 Worker 是通过 Executor Backend 来进行控制的, Executor Backend 是一个进程(是一个 JVM 实例), 持有一个 Executor 对象

    另外在启动程序的时候, 有三种程序需要运行在集群上:

    • Driver

      Driver 是一个 JVM 实例, 是一个进程, 是 Spark Application 运行时候的领导者, 其中运行了 SparkContext.Driver 控制 JobTask, 并且提供 WebUI.

    • Executor

      Executor 对象中通过线程池来运行 Task, 一个 Executor 中只会运行一个 Spark ApplicationTask, 不同的 Spark ApplicationTask 会由不同的 Executor 来运行

    逻辑执行图

    RDD 的逻辑图本质上是对于计算过程的表达, 例如数据从哪来, 经历了哪些步骤的计算

    对于 RDD 的逻辑执行图, 起始于第一个入口 RDD 的创建, 结束于 Action 算子执行之前, 主要的过程就是生成一组互相有依赖关系的 RDD, 其并不会真的执行, 只是表示 RDD 之间的关系, 数据的流转过程.

    RDD间的依赖关系

    说明:RDD之间的依赖关系不是指RDD 之间的关系.而是分区之间的关系

    窄依赖

    判断依据:分区间一对一,多对一(需要判断是否有数据分发,shuffle)

    例子:

    • 一对一窄依赖  map算子

    •  Range窄依赖   union算子

    •  多对一窄依赖  coalesce算子

    宽依赖

    判断依据:多对一且有数据分发,shuffle

    例子:reduceByKey算子

    总结

    宽窄依赖的核心区别是: 窄依赖的 RDD 可以放在一个 Task中运行

    物理执行图

    意义:物理图解决的其实就是 RDD 流程生成以后, 如何计算和运行的问题, 也就是如何把 RDD 放在集群中执行的问题

    谁来计算RDD?

    应该由一个线程来执行 RDD 的计算任务, 而 Executor 作为执行这个任务的容器, 也就是一个进程, 用于创建和执行线程, 这个执行具体计算任务的线程叫做 Task

    Task设计:划分区段

     划分阶段的本身就是设置断开点的规则

    1. 第一步, 从最后一个 RDD, 也就是逻辑图中最右边的 RDD 开始, 向前滑动 Stage 的范围, 为 Stage0

    2. 第二步, 遇到 ShuffleDependency (宽依赖)断开 Stage, 从下一个 RDD 开始创建新的 Stage, 为 Stage1

    3. 第三步, 新的 Stage 按照同样的规则继续滑动, 直到包裹所有的 RDD

    总结来看, 就是针对于宽窄依赖来判断, 一个 Stage 中只有窄依赖, 因为只有窄依赖才能形成数据的 Pipeline.如果要进行 Shuffle 的话, 数据是流不过去的, 必须要拷贝和拉取. 所以遇到 RDD 宽依赖的两个 RDD 时, 要切断这两个 RDDStage.

    数据流动

     

    从产生 Result 的地方开始计算, 但是其 RDD 中是没数据的, 所以会找到父 RDD 来要数据, 父 RDD 也没有数据, 继续向上要, 所以, 计算从 Result 处调用, 但是从整个逻辑图中的最左边 RDD 开始, 类似一个递归的过程

    Job

    Job 什么时候生成 ?

    当一个 RDD 调用了 Action 算子的时候, 在 Action 算子内部, 会使用 sc.runJob() 调用 SparkContext 中的 runJob 方法, 这个方法又会调用 DAGScheduler 中的 runJob, 后在 DAGScheduler 中使用消息驱动的形式创建 Job

    简而言之, JobRDD 调用 Action 算子的时候生成, 而且调用一次 Action 算子, 就会生成一个 Job, 如果一个 SparkApplication 中调用了多次 Action 算子, 会生成多个 Job 串行执行, 每个 Job 独立运作, 被独立调度, 所以 RDD 的计算也会被执行多次

    Job 是什么 ?

    如果要将 Spark 的程序调度到集群中运行, Job 是粒度最大的单位, 调度以 Job 为最大单位, 将 Job 拆分为 StageTask 去调度分发和运行, 一个 Job 就是一个 Spark 程序从 读取 → 计算 → 运行 的过程

    一个 Spark Application 可以包含多个 Job, 这些 Job 之间是串行的, 也就是第二个 Job 需要等待第一个 Job 的执行结束后才会开始执行

    Job和Stage的关系

    • 一个Job有多个Stage
    • Stage之间是串行的
    • Stage从左向右执行

    Stage和Task的关系

    • 一个Stage中有多个Task
    • 一个 Stage 对应一个Taskset
    • 一个Taskset就是一组Task

    整体执行流程

    Spark高级特性

    闭包

    1. 闭包就是一个封闭的作用域, 也是一个对象

    2. Spark 算子所接受的函数, 本质上是一个闭包, 因为其需要封闭作用域, 并且序列化自身和依赖, 分发到不同的节点中运行

    累加器

    全局累加器

    val config = new SparkConf().setAppName("ip_ana").setMaster("local[6]")
    val sc = new SparkContext(config)
    
    val counter = sc.longAccumulator("counter")
    
    sc.parallelize(Seq(1, 2, 3, 4, 5))
      .foreach(counter.add(_))
    
    // 运行结果: 15
    println(counter.value)

    注意点:

    • Accumulator 是支持并发并行的, 在任何地方都可以通过 add 来修改数值, 无论是 Driver 还是 Executor

    • 只能在 Driver 中才能调用 value来获取数值

    • 累加器只有在 Action 执行的时候才会被触发

    广播变量

    作用

    广播变量允许开发者将一个 Read-Only 的变量缓存到集群中每个节点中, 而不是传递给每一个 Task 一个副本.

    • 集群中每个节点, 指的是一个机器

    • 每一个 Task, 一个 Task 是一个 Stage 中的最小处理单元, 一个 Executor 中可以有多个 Stage, 每个 Stage 有多个 Task

    所以在需要跨多个 Stage 的多个 Task 中使用相同数据的情况下, 广播特别的有用

    创建

    val b = sc.broadcast(1)

    方法

    获取数据  b.value

    删除数据  b.unpersist

    释放内存空间 b.destroy

  • 相关阅读:
    Smart Client Architecture and Design Guide
    Duwamish密码分析篇, Part 3
    庆贺发文100篇
    .Net Distributed Application Design Guide
    New Introduction to ASP.NET 2.0 Web Parts Framework
    SPS toplevel Site Collection Administrators and Owners
    来自Ingo Rammer先生的Email关于《Advanced .Net Remoting》
    The newsletter published by Ingo Rammer
    深度探索.Net Remoting基础架构
    信道、接收器、接收链和信道接受提供程序
  • 原文地址:https://www.cnblogs.com/MoooJL/p/14260234.html
Copyright © 2020-2023  润新知