• Spark-2-性能监控方式


    1 Spark Web UI

    Spark提供了一些基本的Web监控页面,对于日常监控十分有用。

    通过http://master:4040(默认端口是4040,可以通过spark.ui.port修改)我们可以获得运行中的程序信息:(1)stages和tasks调度情况;(2)RDD大小及内存使用;(3)系统环境信息;(4)正在执行的executor信息。

    如果想当Spark应用退出后,仍可以获得历史Spark应用的stages和tasks执行信息,便于分析程序不明原因挂掉的情况。可以开启History Server。配置方法如下:

    (1)$SPARK_HOME/conf/spark-env.sh

    export SPARK_HISTORY_OPTS="-Dspark.history.retainedApplications=50

    Dspark.history.fs.logDirectory=hdfs://master01:9000/directory"

    说明:spark.history.retainedApplica-tions仅显示最近50个应用spark.history.fs.logDirectory:Spark History Server页面只展示该路径下的信息。

    (2)$SPARK_HOME/conf/spark-defaults.conf

    spark.eventLog.enabled true

    spark.eventLog.dir hdfs://hadoop000:8020/directory #应用在运行过程中所有的信息均记录在该属性指定的路径下

    spark.eventLog.compress true

    (3)HistoryServer启动

    $SPARK_HOMR/bin/start-histrory-server.sh

    (4)HistoryServer停止

    $SPARK_HOMR/bin/stop-histrory-server.sh

    同时Executor的logs也是查看的一个出处:

    Standalone模式:$SPARK_HOME/logs

    YARN模式:在yarn-site.xml文件中配置了YARN日志的存放位置:yarn.nodemanager.log-dirs,或使用命令获取yarn logs -applicationId。

    同时通过配置ganglia,可以分析集群的使用状况和资源瓶颈,但是默认情况下ganglia是未被打包的,需要在mvn编译时添加-Pspark-ganglia-lgpl,并修改配置文件$SPARK_HOME/conf/metrics.properties。

  • 相关阅读:
    Java 基础入门随笔(6) JavaSE版——数组操作
    Java 基础入门随笔(5) JavaSE版——函数重载
    Java 基础入门随笔(4) JavaSE版——程序流程控制
    Java 基础入门随笔(3) JavaSE版——逻辑运算符、位运算符
    jvm第二章(二)
    jvm第二章(一)
    jvm第一章(三)
    jvm第一章(二)
    jvm第一章(一)
    Java程序初始化的顺序是怎样的?
  • 原文地址:https://www.cnblogs.com/weijiqian/p/14004474.html
Copyright © 2020-2023  润新知