• Hadoop服役新数据节点


    随着公司业务的增长,数据量越来越大,原有的数据节点的容量已经不能满足存储数据的需求,需要在原有集群基础上动态添加新的数据节点。

    1. 环境准备
      (1)在hadoop104主机上再克隆一台hadoop105主机
      (2)修改IP地址和主机名称
      sudo vim /etc/sysconfig/network 修改主机名称
      sudo vim /etc/sysconfig/network-scripts/ifcfg-eth0 修改Ip
      sudo vim /etc/udev/rules.d/70-persistent-net.rules 修改网卡
      删除eth0 修改eth1为0
      (3)新节点没有hadoop、jdk,选台机器拷贝至新节点 (拷贝前提试hosts有集群ip用户名、可以互通)
      rsync -av /opt/module/jdk1.8.0_192 hadoop105:/opt/module/
      rsync -av /opt/module/hadoop-2.7.2 hadoop105:/opt/module/
      sudo rsync -av /etc/profile hadoop105:/etc/profile
      source /etc/profile
      (4)删除原来HDFS文件系统留存的文件(/opt/module/hadoop-2.7.2/data和log)
      rm data logs -rf
      (5)(1)直接启动DataNode,即可关联到集群
      [hfx@hadoop105 hadoop-2.7.2]$ sbin/hadoop-daemon.sh start datanode
      [hfx@hadoop105 hadoop-2.7.2]$ sbin/yarn-daemon.sh start nodemanager

         (6)如果数据不均衡,可以用命令实现集群的再平衡
            [hfx@hadoop102 sbin]$ ./start-balancer.sh
      

    配置免密
    ssh-keygen -t rsa 3个回车
    cd .ssh/
    ssh-copy-id hadoop102 yes

  • 相关阅读:
    Solution -「ARC 126F」Affine Sort
    Solution -「ABC 219H」Candles
    Solution -「LOCAL」二进制的世界
    Solution Set -「ABC 217」
    Java 封装
    Java 对象和类
    Java 继承
    牛客网MySQL在线编程
    Linux uniq命令
    Linux 单引号、双引号、反引号
  • 原文地址:https://www.cnblogs.com/sgjk/p/12307856.html
Copyright © 2020-2023  润新知