• Apache Spark技术实战之6 -- spark-submit常见问题及其解决


    除本人同意外,严禁一切转载,徽沪一郎。

    概要

    编写了独立运行的Spark Application之后,需要将其提交到Spark Cluster中运行,一般会采用spark-submit来进行应用的提交,在使用spark-submit的过程中,有哪些事情需要注意的呢?

    本文试就此做一个小小的总结。

    spark-defaults.conf

    Spark-defaults.conf的作用范围要搞清楚,编辑driver所在机器上的spark-defaults.conf,该文件会影响 到driver所提交运行的application,及专门为该application提供计算资源的executor的启动参数

    只需要在driver所在的机器上编辑该文件,不需要在worker或master所运行的机器上编辑该文件

    举个实际的例子

    spark.executor.extraJavaOptions	   -XX:MaxPermSize=896m
    spark.executor.memory		   5g
    spark.serializer        org.apache.spark.serializer.KryoSerializer
    spark.cores.max		32
    spark.shuffle.manager	SORT
    spark.driver.memory	2g
    

     上述配置表示为该application提供计算资源的executor启动时, heap memory需要有5g。

    这里需要引起注意的是,如果worker在加入cluster的时候,申明自己所在的机器只有4g内存,那么为上述的application分配executor是,该worker不能提供任何资源,因为4g<5g,无法满足最低的资源需求。

    spark-env.sh

    spark-env.sh中最主要的是指定ip地址,如果运行的是master,就需要指定SPARK_MASTER_IP,如果准备运行driver或worker就需要指定SPARK_LOCAL_IP,要和本机的IP地址一致,否则启动不了。

    配置举例如下

    export SPARK_MASTER_IP=127.0.0.1
    export SPARK_LOCAL_IP=127.0.0.1
    

    启动spark集群

    第一步启动master

    $SPARK_HOME/sbin/start-master.sh
    

    第二步启动worker

    $SPARK_HOME/bin/spark-class org.apache.spark.deploy.worker.Worker spark://master:7077
    

    将master替换成MASTER实际运行的ip地址

    如果想在一台机器上运行多个worker(主要是用于测试目的),那么在启动第二个及后面的worker时需要指定—webui-port的内容,否则会报端口已经被占用的错误,启动第二个用的是8083,第三个就用8084,依此类推。

    $SPARK_HOME/bin/spark-class org.apache.spark.deploy.worker.Worker spark://master:7077
        –webui-port 8083
    

     这种启动worker的方式只是为了测试是启动方便,正规的方式是用SPARK_HOME/sbin/start-slaves.sh来启动多个worker,由于涉及到ssh的配置,比较麻烦,我这是图简单的办法。

    用$SPARK\_HOME/sbin/start-slave.sh$来启动worker时有一个默认的前提,即在每台机器上$SPARK_HOME必须在同一个目录。

    使用相同的用户名和用户组来启动Master和Worker,否则Executor在启动后会报连接无法建立的错误。

    我在实际的使用当中,遇到”no route to host”的错误信息,起初还是认为网络没有配置好,后来网络原因排查之后,忽然意识到有可能使用了不同的用户名和用户组,使用相同的用户名/用户组之后,问题消失。

    spark-submit

    spark集群运行正常之后,接下来的问题就是提交application到集群运行了。

    Spark-submit用于Spark application的提交和运行,在使用这个指令的时候最大的困惑就是如何指定应用所需要的依赖包。

    首先查看一下spark-submit的帮助文件

    $SPARK_HOME/bin/submit --help
    

    有几个选项可以用来指定所依赖的库,分别为

    • --driver-class-path driver所依赖的包,多个包之间用冒号(:)分割
    • --jars   driver和executor都需要的包,多个包之间用逗号(,)分割

    为了简单起见,就通过—jars来指定依赖,运行指令如下

    $SPARK_HOME/bin/spark-submit –class 应用程序的类名 
    --master spark://master:7077 
    --jars 依赖的库文件 
    spark应用程序的jar包
    

    需要提醒的时,这些上传到worker的文件,需要定时做手工清理,否则会占用许多磁盘空间

    问题1

    由于Spark在计算的时候会将中间结果存储到/tmp目录,而目前linux又都支持tmpfs,其实说白了就是将/tmp目录挂载到内存当中。

    那么这里就存在一个问题,中间结果过多导致/tmp目录写满而出现如下错误

    No Space Left on the device

    解决办法就是针对tmp目录不启用tmpfs,修改/etc/fstab

    问题2

    有时可能会遇到java.lang.OutOfMemory, unable to create new native thread的错误,导致这种错误的原因比较多。

    有一种情况并非真的是内存不足引起的,而是由于超出了允许的最大文件句柄数或最大进程数。

    排查的步骤就是查看一下允许打开的文件句柄数和最大进程数,如果数值过低,使用ulimit将其调高之后,再试试问题是否已经解决。

    ulimit -a
    

    修改允许打开的最大进程数

    ulimit -u 65535
    

    修改允许打开的文件句柄

    ulimit -n 65535
    

    spark-shell

    上面讲述了spark-submit提交Spark Application如何解决依赖库的问题,那如果是spark-shell的话,该怎么办呢?

    spark-shell的话,利用--driver-class-path选项来指定所依赖的jar文件,注意的是--driver-class-path后如果需要跟着多个jar文件的话,jar文件之间使用冒号(:)来分割。

    小结

    本文部分内容已由本人徽沪一郎在CSDN中通过”使用Spark+Cassandra打造高性能数据分析平台“发表。

  • 相关阅读:
    P85 实战练习
    Java语句及控制台输入
    P62 实战练习
    运算符、数据类型转换和注释
    Java变量与常量
    Java语法初步实际应用
    JQ 练习题
    JQ 特效下拉列表 写出与css一样的效果
    JQ 全选设定与设置选中
    JQ JSON数据类型
  • 原文地址:https://www.cnblogs.com/hseagle/p/4052572.html
Copyright © 2020-2023  润新知