• Spark中Task数量的分析


    本文主要说一下Spark中Task相关概念、RDD计算时Task的数量、Spark Streaming计算时Task的数量。

    Task作为Spark作业执行的最小单位,Task的数量及运行快慢间接决定了作业运行的快慢。


    开始

    先说明一下Spark作业的几个核心概念

    Job(作业):Spark根据行动操作触发提交作业,以行动操作将我们的代码切分为多个Job。

    Stage(调度阶段):每个Job中,又会根据宽依赖将Job划分为多个Stage(包括ShuffleMapStage和ResultStage)。

    Task(任务):真正执行计算的部分。Stage相当于TaskSet,每个Stage内部包含了多个Task,将各个Task下发到各个Executor执行计算。

    每个Task的处理逻辑完全一样,不同的是对应处理的数据。即:移动计算而不是移动数据。

    Partition(分区):这个是针对RDD而言的,RDD内部维护了分区列表,表示数据在集群中存放的不同位置。

    Job、Stage、Task的对应关系如下:
    Job-Stage-Task对应图

    Task是真正干活的,所以说是它间接决定了Spark程序的快慢也不过分。


    再看看Spark任务提交时的几个相关配置

    num-executors:配置执行任务的Executor的数量。

    executor-cores:每个Executor的核的数量。此核非彼核,它不是机器的CPU核,可以理解为Executor的一个线程。

    每个核同时只可以执行一个Task。

    也就是说一个Spark应用同时执行的任务数 = 用于执行任务的Executor数 * 每个Executor的核数

    spark.executor.memory:每个Executor的内存大小。

    spark.default.parallelism:RDD的默认分区数。

    在我们没有指定这个参数的前提下,如果是shuffle操作,这个值默认是父RDD中分区数较大的那个值;如果是普通操作,这个值的默认大小取决于集群管理器(YARN, Local这些)。

    以YARN为例,如果我们没有指定,它的大小就是所有用于执行任务的Executor核的总数

    spark.sql.shuffle.partitions:这个配置是针对于Spark SQL在shuffle时的默认分区数。默认值是200。只对Spark SQL起作用。

    RDD计算时Task的数量

    在基于RDD计算时,Task的数量 = RDD的分区数

    所以调整RDD分区的数量就可以变相的调整Task的数量。

    所以当RDD计算跑的很慢时,可以通过适当的调整RDD分区数来实现提速。

    看看Spark.parallelize生成RDD时的源码实现:

    def parallelize[T: ClassTag](
        seq: Seq[T],
        numSlices: Int = defaultParallelism): RDD[T] = withScope {
        assertNotStopped()
            new ParallelCollectionRDD[T](this, seq, numSlices, Map[Int, Seq[String]]())
    }
    
    // 这里的taskScheduler.defaultParallelism就是
    // 取的配值中spark.default.parallelism的值。
    def defaultParallelism: Int = {
        assertNotStopped()
            taskScheduler.defaultParallelism
    }
    

    可以发现通过Spark.parallelize创建的RDD分区,如果我们不指定分区数,那么分区数就是由配置的spark.default.parallelism来决定。

    Spark读Hive、HDFS时的Task数量

    这块之后补上来。。。


    Spark Streaming流处理时的Task数量

    Spark Streaming作为Spark中用于流处理的一员,它的原理就是运行一个接收器接收数据,然后将接收的数据按块进行存储,之后划分Job,执行Task处理数据。

    ok,Spark Streaming最后也会转换成Task进行数据的处理,也就是Task运行速度也会影响它处理数据的速度。


    Spark Streaming中Task的数量是由用来存储接收到数据的Block数来决定的。

    那么只要控制Block的数量就可以控制Task的数量。

    如下代码所示,Block是由一个定时器定时生成的。

    // 块生成间隔时间
    private val blockIntervalMs = conf.getTimeAsMs("spark.streaming.blockInterval", "200ms")
    // 一个定时器,按块生成间隔时间定时根据接收到的数据生成块。
    private val blockIntervalTimer = new RecurringTimer(clock, blockIntervalMs, updateCurrentBuffer, "BlockGenerator")
    

    所以Block的数量 = 批处理间隔时间 / 块生成间隔时间

    块生成间隔时间是由配置spark.streaming.blockInterval决定的,默认是200ms,最小是50ms。

    所以当Spark Streaming的Task数量成为性能的瓶颈时,可以通过调整参数来调整Task的数量。

    总结

    1、Task是Spark的最小执行单位,Executor每个核同时只能执行一个Task。

    2、RDD计算时,Task数量与分区数对应;Spark Streaming中,Task数量由Block数决定。

    3、根据分配的资源以及作业的运行情况,适当调整Task数量。

    4、移动计算而不是移动数据。


    end. 个人理解,如果偏差欢迎指正。



    个人公众号:码农峰,定时推送行业资讯,持续发布原创技术文章,欢迎大家关注。

  • 相关阅读:
    iDirect IQ200 Evolution Option Config
    直播卫星接收设备参数
    QCA9531方案双通道嵌入式无线AP模块应用选型参考
    FanControl 机箱风扇控制软件
    硬盘基本知识(磁头、磁道、扇区、柱面)
    Registry keys for configuring Automatic Updates & WSUS
    CentOS6.5下简单的MySQL数据库操作
    临时搞两天VC,在VC里如何获取当前程序的名字和路径以及如何分割字符串
    COBOL中USAGE的用法
    sqlplus 帮助无法显示问题的解决
  • 原文地址:https://www.cnblogs.com/upupfeng/p/12385979.html
Copyright © 2020-2023  润新知