• Hadoop-2.x启动HDFS和YARN的方式


    逐一启动(实际生产环境中的启动方式)

    * sbin/hadoop-daemon.sh start|stop  namenode|datanode|journalnode
    * sbin/yarn-daemon.sh start|stop  resourcemanager|nodemanager
    

    分别启动

    * start-dfs.sh
    * start-yarn.sh
    

    一起启动

    * start-all.sh
    

    start-dfs.sh脚本:

    * (1)     通过命令bin/hdfs getconf –namenodes查看namenode在那些节点上
    * (2)     通过ssh方式登录到远程主机,启动hadoop-deamons.sh脚本
    * (3)     hadoop-deamon.sh脚本启动slaves.sh脚本
    * (4)     slaves.sh脚本启动hadoop-deamon.sh脚本,再逐一启动
    

    start-all.sh脚本:

    * start-all.sh实际上是调用sbin/start-dfs.sh脚本和sbin/start-yarn.sh脚本
    

    三种启动方式的关系

    * start-all.sh其实调用start-dfs.sh和start-yarn.sh
    * start-dfs.sh调用hadoop-deamon.sh 
    * start-yarn.sh调用yarn-deamon.sh
  • 相关阅读:
    第52周二Restful
    第52周一
    第51周日
    第51周六
    第51周五
    第51周四
    第51周三
    第51周二
    第51周一
    第50周日
  • 原文地址:https://www.cnblogs.com/fuyiming/p/6344149.html
Copyright © 2020-2023  润新知