• hadoop中的Jobhistory历史服务器


    1.  启动脚本

    mr-jobhistory-daemon.sh start historyserver

    2. 配置说明

    jobhistory用于查询每个job运行完以后的历史日志信息,是作为一台单独的服务器运行的。可以在namenode或者datanode上的任意一台启动即可。

    默认的配置如下,但是需要手工修改为我们指定的那台服务器。

    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>0.0.0.0:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>0.0.0.0:19888</value>
    </property>

    参数配置在mapred-site.xml文件中。如果将history服务器配置在namenode2中,修改如下:

    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>dwtest-name2:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>dwtest-name2:19888</value>
    </property>

    3.日志存储过程

    jobhistory server来实现web查看作业的历史运行情况,日志存储的位置是在hdfs文件系统中

    当job作业在运行中时,可以直接通过web查看作业的运行状况, 此时的记录保存在${mapreduce.intermediate-done-dir} 路径下。

    当job作业执行完成后,会将${mapreduce.intermediate-done-dir}目录下的日志文件移动到历史文件夹${mapreduce.jobhistory.done-dir}中。

    ${mapreduce.intermediate-done-dir} 和 ${mapreduce.jobhistory.done-dir} 在mapred-site.xml中配置。

    如果没有启动jobhistory进程,就无法查看历史执行的明细信息。

    当由于在启动hdfs和Yarn进程之后,jobhistoryserver进程并没有启动,需要手动启动。

    注意: jobhistory是一个单一的历史服务器,不需要在集群中启动多个服务。使用时,需要在配置文件中指定一个服务器,然后启动historyserver服务。

  • 相关阅读:
    java 线程状态和转化
    初学Spring
    unittest --- 单元测试
    Python单例模式的两种实现方式
    python records操作数据库
    数据可视化之——matplotlib基础学习
    python使用list维护成一个队列
    Python将list列表维护成一个栈
    Python使用rsa模块实现非对称加密与解密
    python +OpenCV实现rtmp视频流媒体的播放
  • 原文地址:https://www.cnblogs.com/30go/p/8509893.html
Copyright © 2020-2023  润新知