• [转]清理ambari安装的hadoop集群


    本文针对redhat或者centos

    对于测试集群,如果通过ambari安装Hadoop集群后,想重新再来一次的话,需要清理集群。

    对于安装了很多hadoop组件的话,这个工作很繁琐。接下来是我整理的清理过程。

    1,通过ambari将集群中的所用组件都关闭,如果关闭不了,直接kill -9 XXX

    2,关闭ambari-server,ambari-agent

    [plain] view plain copy
     
    1. ambari-server stop  
    2. ambari-agent stop  

    3,卸载安装的软件

    [plain] view plain copy
     
    1. yum remove hadoop_2* hdp-select* ranger_2* zookeeper_* bigtop* atlas-metadata* ambari* postgresql spark*  slider* storm* snappy*

    以上命令可能不全,执行完一下命令后,再执行

    [plain] view plain copy
     
    1. yum list | grep @HDP  

    查看是否还有没有卸载的,如果有,继续通过#yum remove XXX卸载

    4,删除postgresql的数据

          postgresql软件卸载后,其数据还保留在硬盘中,需要把这部分数据删除掉,如果不删除掉,重新安装ambari-server后,有可能还应用以前的安装数据,而这些数据时错误数据,所以需要删除掉。

    [plain] view plain copy
     
    1. rm -rf /var/lib/pgsql  

    5,删除用户

         ambari安装hadoop集群会创建一些用户,清除集群时有必要清除这些用户,并删除对应的文件夹。这样做可以避免集群运行时出现的文件访问权限错误的问题。     

    [plain] view plain copy
     
    1. userdel oozie  
    2. userdel hive  
    3. userdel ambari-qa  
    4. userdel flume    
    5. userdel hdfs    
    6. userdel knox    
    7. userdel storm    
    8. userdel mapred  
    9. userdel hbase    
    10. userdel tez    
    11. userdel zookeeper  
    12. userdel kafka    
    13. userdel falcon  
    14. userdel sqoop    
    15. userdel yarn    
    16. userdel hcat  
    17. userdel atlas  
    18. userdel spark  
    19. userdel ams
    [plain] view plain copy
     
    1. rm -rf /home/atlas  
    2. rm -rf /home/accumulo  
    3. rm -rf /home/hbase  
    4. rm -rf /home/hive  
    5. rm -rf /home/oozie  
    6. rm -rf /home/storm  
    7. rm -rf /home/yarn  
    8. rm -rf /home/ambari-qa  
    9. rm -rf /home/falcon  
    10. rm -rf /home/hcat  
    11. rm -rf /home/kafka  
    12. rm -rf /home/mahout  
    13. rm -rf /home/spark  
    14. rm -rf /home/tez  
    15. rm -rf /home/zookeeper  
    16. rm -rf /home/flume  
    17. rm -rf /home/hdfs  
    18. rm -rf /home/knox  
    19. rm -rf /home/mapred  
    20. rm -rf /home/sqoop  

    6,删除ambari遗留数据

    [plain] view plain copy
     
    1. rm -rf /var/lib/ambari*  
    2. rm -rf /usr/lib/python2.6/site-packages/ambari_*  
    3. rm -rf /usr/lib/python2.6/site-packages/resource_management  
    4. rm -rf /usr/lib/ambri-*  

    7,删除其他hadoop组件遗留数据

    [plain] view plain copy
     
    1. rm -rf /etc/falcon
      rm -rf /etc/knox
      rm -rf /etc/hive-webhcat
      rm -rf /etc/kafka
      rm -rf /etc/slider
      rm -rf /etc/storm-slider-client
      rm -rf /etc/spark
      rm -rf /var/run/spark
      rm -rf /var/run/hadoop
      rm -rf /var/run/hbase
      rm -rf /var/run/zookeeper
      rm -rf /var/run/flume
      rm -rf /var/run/storm
      rm -rf /var/run/webhcat
      rm -rf /var/run/hadoop-yarn
      rm -rf /var/run/hadoop-mapreduce
      rm -rf /var/run/kafka
      rm -rf /var/log/hadoop
      rm -rf /var/log/hbase
      rm -rf /var/log/flume
      rm -rf /var/log/storm
      rm -rf /var/log/hadoop-yarn
      rm -rf /var/log/hadoop-mapreduce
      rm -rf /var/log/knox
      rm -rf /usr/lib/flume
      rm -rf /usr/lib/storm
      rm -rf /var/lib/hive
      rm -rf /var/lib/oozie
      rm -rf /var/lib/flume
      rm -rf /var/lib/hadoop-hdfs
      rm -rf /var/lib/knox
      rm -rf /var/log/hive
      rm -rf /var/log/oozie
      rm -rf /var/log/zookeeper
      rm -rf /var/log/falcon
      rm -rf /var/log/webhcat
      rm -rf /var/log/spark
      rm -rf /var/tmp/oozie
      rm -rf /tmp/ambari-qa
      rm -rf /var/hadoop
      rm -rf /hadoop/falcon
      rm -rf /tmp/hadoop
      rm -rf /tmp/hadoop-hdfs
      rm -rf /usr/hdp
      rm -rf /usr/hadoop
      rm -rf /opt/hadoop
      rm -rf /opt/hadoop2
      rm -rf /tmp/hadoop
      rm -rf /var/hadoop
      rm -rf /hadoop
      rm -rf /etc/ambari-metrics-collector
      rm -rf /etc/ambari-metrics-monitor
      rm -rf /var/run/ambari-metrics-collector
      rm -rf /var/run/ambari-metrics-monitor
      rm -rf /var/log/ambari-metrics-collector
      rm -rf /var/log/ambari-metrics-monitor
      rm -rf /var/lib/hadoop-yarn
      rm -rf /var/lib/hadoop-mapreduce

    8,清理yum数据源

    [plain] view plain copy
     
      1. #yum clean all  
  • 相关阅读:
    自定义 Spring Boot 安全组件 Security 的用户名和密码的方法
    禁用 Spring Boot 中引入安全组件 spring-boot-starter-security 的方法
    CentOS 7 上配置 maven 的环境变量
    CentOS 7 上配置 JDK1.8 的环境变量
    CentOS 7 上安装 xz utils 解压缩工具
    常用 Maven 配置
    接口统计模板
    为什么领域模型对于架构师如此重要? https://blog.csdn.net/qq_40741855/article/details/84835212
    什么是实体关系图(ERD)? 转
    彻底明白Flink系统学习5:window、Linux本地安装Flink
  • 原文地址:https://www.cnblogs.com/julyme/p/5642486.html
Copyright © 2020-2023  润新知