• spark.sql.shuffle.partitions和spark.default.parallelism的区别


    在关于spark任务并行度的设置中,有两个参数我们会经常遇到,spark.sql.shuffle.partitions 和 spark.default.parallelism, 那么这两个参数到底有什么区别的?

    首先,让我们来看下它们的定义

    Property Name Default Meaning
    spark.sql.shuffle.partitions 200 Configures the number of partitions to use when shuffling data for joins or aggregations.
    spark.default.parallelism

    For distributed shuffle operations like reduceByKey and join, the largest number of partitions in a parent RDD.

    For operations like parallelize with no parent RDDs, it depends on the cluster manager:
    - Local mode: number of cores on the local machine
    - Mesos fine grained mode: 8
    - Others: total number of cores on all executor nodes or 2, whichever is larger

    Default number of partitions in RDDs returned by transformations like join, reduceByKey, and parallelize when not set by user.

    看起来它们的定义似乎也很相似,但在实际测试中,

    spark.default.parallelism只有在处理RDD时才会起作用,对Spark SQL的无效。
    spark.sql.shuffle.partitions则是对Spark SQL专用的设置

    我们可以在提交作业的通过 --conf 来修改这两个设置的值,方法如下:

    spark-submit --conf spark.sql.shuffle.partitions=20 --conf spark.default.parallelism=20
  • 相关阅读:
    Eclipse快捷键大全
    OOA/OOD/OOP
    SQL Server 存储过程(转)
    PowerDesigner 生成数据库方法(转)
    CDM和PDM的区别?(转)
    委托存在的理由
    提问回顾
    对软件工程常见概念的一些见解
    Gulp插件笔记
    Pascal-S代码注释
  • 原文地址:https://www.cnblogs.com/itboys/p/10960614.html
Copyright © 2020-2023  润新知