• 深入理解spark-taskScheduler,schedulerBackend源码分析


    上次分析了dagshceduler是如何将任务拆分成job,stage,task的,但是拆分后的仅仅是一个逻辑结果,保存为一个resultstage对象,并没执行;

    而将任务正在执行的是spark的taskscheduler模块和shcedulerbackend模块,

    taskcheduler模块负责task的调度,schedulerbackend负责task的自愿申请,这两个结合比价紧密,实现也是在一起实现的;

    点开sparkcontext的内部属性,可以看到taskscheduler的的对象(org.apache.spark.scheduler.TaskScheduler)是一个trait(Scala的叫法,简单的理解为类似于java的interface),这是因为task的提交方式有多种,可以是yarn-client模式,也可以是yarn-cluster模型,这取决于提交spark提交时候设置的参数master。

    master设置不同,最终实现的也不同,当是yarn-client模式的时候,task实现方式则是yarnscheduler。

    同样的schedulerbackend也是一个trait,具体的实现也是根据spark.master来决定,如果是yarn-client模式,实现则是yarnclientschedulerbackend。

    具体看一下代码实现:

    SparkContext#createTaskScheduler

    sparkcontext中调用createtaskscheduler,根据master来决定生成的实际类型,taskscheduler,schedulerbackend

    val (sched , ts) = SparkContext.createTaskScheduler(this, master) // 这里的master是"spark.master"参数的值,String类型
    _schedulerBackend = sched//生成 schedulerBackend
    _taskScheduler = ts//生成 taskScheduler
    _taskScheduler .start()

    进入到createtaskscheduler方法中,具体实现根据事master的模型,有yarn-client,yarn-cluster,local等;

    我们只看yarn-client模式(平常用的比较多的时候,yarn-client模式的时候,driver在客户端,那么输出的日志也会在本地可以查看,yarn-cluster模式下driver是在资源管理器下的,首先日志不太方便查看),可以看到内部实现是根据match case来实现匹配的。yarn-clent模式下,schedulerbackend实现org.apache.spark.scheduler.cluster.YarnClientSchedulerBackend,taskscheduler 实现org.apache.spark.scheduler.cluster.YarnScheduler;

     case "yarn-client" =>
            val scheduler = try {
              val clazz = Utils.classForName("org.apache.spark.scheduler.cluster.YarnScheduler")
              val cons = clazz.getConstructor(classOf[SparkContext])
              cons.newInstance(sc).asInstanceOf[TaskSchedulerImpl]
    
            } catch {
              case e: Exception => {
                throw new SparkException("YARN mode not available ?", e)
              }
            }
    
            val backend = try {
              val clazz =
                Utils.classForName("org.apache.spark.scheduler.cluster.YarnClientSchedulerBackend")
              val cons = clazz.getConstructor(classOf[TaskSchedulerImpl], classOf[SparkContext])
              cons.newInstance(scheduler, sc).asInstanceOf[CoarseGrainedSchedulerBackend]
            } catch {
              case e: Exception => {
                throw new SparkException("YARN mode not available ?", e)
              }
            }
    
            scheduler.initialize(backend)
            (backend, scheduler)

    在根据master获得了实际调度类型之后,并没有马上返回,而是调用了scheduler.initizlize(backend)

    TaskSchedulerImpl#initialize

    在这个方法中,可以看到是根据spark的调度模式初始化一个调度池,这里可以看到spark有两种调度模式(FIFO,FAIR两种模式);

    def initialize(backend: SchedulerBackend) {
        this.backend = backend
        // temporarily set rootPool name to empty 这里可以看到调度池初始化最小设置为0
        rootPool = new Pool("", schedulingMode, 0, 0)
        schedulableBuilder = {
          schedulingMode match {
            case SchedulingMode.FIFO =>
              new FIFOSchedulableBuilder(rootPool)
            case SchedulingMode.FAIR =>
              new FairSchedulableBuilder(rootPool, conf)
          }
        }
        schedulableBuilder.buildPools()
      }

    完成后会返回实际类型,然后启动taskscheduler.start()

    启动了之后根据DAGscheduler提交的stage的类型,shufflestage还是resultstage去不同的执行:

    TaskScheduler#submitTasks

    未完待续.....

  • 相关阅读:
    my first blog
    iFrame 父子窗口通讯
    关于手机端横屏竖屏问题
    IE环境规定div高度必须大于字体高度的问题
    adMob的旋转方法
    影响一个UIView是否能正常显示的几个因素
    iphone编译时的注意事项
    Cocos2d的字体生成软件Hiero v2.0 Bitmap Font Tool的一些问题
    编写Web前端代码的注意事项
    Cocos2d的SpriteSheet在多层图片时出现的问题
  • 原文地址:https://www.cnblogs.com/yankang/p/9782632.html
Copyright © 2020-2023  润新知