• hadoop HDFS完全分布式搭建


    1.准备阶段

    准备好两台虚拟机(安装好hadoop,见:https://www.cnblogs.com/cjq10029/p/12336446.html),计划:

    IP           主机名
    192.168.3.7  hdp01   主节点
    192.168.3.8  hdp02   从节点
    

    2.开始操作

    1.同步时间

    yum install ntpdate   #各节点安装同步工具
    ntpdate ntp1.aliyun.com    #同步阿里云ntp服务器时间
    date          #查看同步后的时间
    

    2.配置IP映射

    vim /etc/hosts   #进入配置文件
    192.168.3.7 hdp01   #末尾加入这两行
    192.168.3.8 hdp02
    

    3.配置免密

    授权免密访问
    hdp01-->hdp01
    hdp01-->hdp02

    ssh-keygen  #生成密钥对
    ssh-copy-id hdp01   #将公钥拷贝给本机
    ssh-copy-id hdp02   #将公钥拷贝给其他机
    

    4.修改hdfs-site.xml配置文件(主从节点)

    vim /opt/software/hadoop277/etc/hadoop/hdfs-site.xml
    #在已有标签内写入以下代码
    <property>
            <name>dfs.replication</name>
            <value>3</value>   //Block副本数
    </property>
    

    5.修改slaves配置文件

    vim /opt/software/hadoop277/etc/hadoop/hdfs-site.xml
    #写入以下代码
    hdp01
    hdp02
    

    6.启动测试

    start-dfs.sh   #在主节点启动,从节点会跟着启动
    

    3.sbin下的脚本

    start-all.sh    一次启动五个
    
    hadoop-daemon.sh  一次启动或停止一个 namenode   datanode   secondnamenode
    
    ​	hadoop-daemon.sh start datanode
    
    ​	hadoop-daemon.sh stop datanode
    
    yarn-daemon.sh  一次启动或停止一个   nodemanager resourcemanager
    
    start-yarn.sh  一次启动两个  nodemanager resourcemanager
    
    start-dfs.sh 一次启动三个  namenode   datanode   secondnamenode
    
  • 相关阅读:
    第六周总结
    石家庄地铁线路查询系统
    第五周总结报告
    二维数组
    第四周总结
    个人作业一(补充)
    第三周总结
    个人作业一
    开课博客
    CentOS7 网卡配置文件解释
  • 原文地址:https://www.cnblogs.com/cjq10029/p/12366305.html
Copyright © 2020-2023  润新知