• spark之Executor与初始化SparkSession


    关于Executor:

    一个executor同时只能执行一个计算任务

    但一个worker(物理节点)上可以同时运行多个executor

    executor的数量决定了同时处理任务的数量

    一般来说,分区数远大于executor的数量才是合理的

    同一个作业,在计算逻辑不变的情况下,分区数和executor的数量很大程度上决定了作业运行的时间

    初始化SparkSession

    scala版本

    import org.apache.spark.sql.SparkSession
    val spark = SparkSession.builder().master("yarn-client").appName("New SS").config("spark.executor.instances","10").config("spark.executor.memory","10g").getOrCreate()
    import spark.implicits._

      在代码中,我们通过配置指明了spark运行环境时的yarn,并以yarn-client的方式提交作业(yarn还支持yarn-cluster的方式,区别在于前者driver运行在客户端,后者driver运行在yarn的container中)。我们一共申请了10个executer,每个10g。

    python版本

    from pyspark.sql import SparkSession
    spark = SparkSession.builder.master("yarn-client").appName("New SS").config("spark.executor.instances","10").config("spark.executor.memory","10g").getOrCreate()
  • 相关阅读:
    编译环境及编译器介绍
    linux下同步window的firefox
    DPDK pdump抓包说明
    linux TCP协议(1)---连接管理与状态机
    Linux用户态数据发送和接收
    DPDK之内存管理
    linux socket系统调用层
    linux网络栈结构
    DPDK mbuf何时释放回内存池?
    虚拟设备之linux网桥
  • 原文地址:https://www.cnblogs.com/xiao02fang/p/13197877.html
Copyright © 2020-2023  润新知