• hadoop 04 一 HA高可用配置



    HA高可用配置

    一、简述
    -------------------

    high availability,高可用.
    两个名称节点,一个active(激活态),一个是standby(slave待命),slave节点维护足够多状态以便于容灾。
    和客户端交互的active节点,standby不交互.
    两个节点都和JN守护进程构成组的进行通信。
    数据节点配置两个名称节点,分别报告各自的信息。
    同一时刻只能有一个激活态名称节点。
    脑裂:两个节点都是激活态。
    为防止脑裂,JNs只允许同一时刻只有一个节点向其写数据。容灾发生时,成为active节点的namenode接管
    向jn的写入工作。

    二、硬件资源
    --------------

    名称节点:    硬件配置相同。
    JN节点    :    轻量级进程,至少3个节点,允许挂掉的节点数 (n - 1) / 2.
    不需要再运行辅助名称节点。

    三、配置细节
    ---------------

    0.centos001和centos006具有完全一致的配置,尤其是.ssh(免密登陆)
    
    1.配置nameservice
    [hdfs-site.xml]
    <property>
    <name>dfs.nameservices</name>
    <value>mycluster</value>
    </property>
    
    2.dfs.ha.namenodes.[nameservice ID]
    [hdfs-site.xml]
    <!-- myucluster下的名称节点两个id -->
    <property>
    <name>dfs.ha.namenodes.mycluster</name>
    <value>nn1,nn2</value>
    </property>
    
    3.dfs.namenode.rpc-address.[nameservice ID].[name node ID] 
    [hdfs-site.xml]
    配置每个nn的rpc地址。
    <property>
    <name>dfs.namenode.rpc-address.mycluster.nn1</name>
    <value>centos001:8020</value>
    </property>
    <property>
    <name>dfs.namenode.rpc-address.mycluster.nn2</name>
    <value>centos006:8020</value>
    </property>
    
    4.dfs.namenode.http-address.[nameservice ID].[name node ID]
    配置webui端口
    [hdfs-site.xml]
    <property>
    <name>dfs.namenode.http-address.mycluster.nn1</name>
    <value>centos001:50070</value>
    </property>
    <property>
    <name>dfs.namenode.http-address.mycluster.nn2</name>
    <value>centos006:50070</value>
    </property>
    
    5.dfs.namenode.shared.edits.dir
    名称节点共享编辑目录.
    [hdfs-site.xml]
    <property>
    <name>dfs.namenode.shared.edits.dir</name>
    <value>qjournal://centos002:8485;centos003:8485;centos004:8485/mycluster</value>
    </property>
    
    6.dfs.client.failover.proxy.provider.[nameservice ID]
    java类,client使用它判断哪个节点是激活态。
    [hdfs-site.xml]
    <property>
    <name>dfs.client.failover.proxy.provider.mycluster</name>
    <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
    </property>
    
    7.dfs.ha.fencing.methods
    脚本列表或者java类,在容灾保护激活态的nn.
    [hdfs-site.xml]
    

    <property>
      <name>dfs.ha.fencing.methods</name>
      <value>
        sshfence
        shell(/bin/true)
      </value>
    </property>

    <property>
    <name>dfs.ha.fencing.ssh.private-key-files</name>
    <value>/root/.ssh/id_rsa</value>
    </property>
    
    8.fs.defaultFS 
    配置hdfs文件系统名称服务。
    [core-site.xml]
    <property>
    <name>fs.defaultFS</name>
    <value>hdfs://mycluster</value>
    </property>
    
    9.dfs.journalnode.edits.dir
    配置JN存放edit的本地路径。
    [hdfs-site.xml]
    <property>
    <name>dfs.journalnode.edits.dir</name>
    <value>/data/journal</value>
    </property>

    四、部署细节
    ----------------

        1.在jn节点分别启动jn进程
            $>hadoop-daemon.sh start journalnode
    
        2.启动jn之后,在两个NN之间进行disk元数据同步
            a)如果是全新集群,先format文件系统,只需要在一个nn上执行。
                1、 [centos001]
                    $>hadoop namenode -format //格式化文件系统
             
    $>hadoop-daemon.sh start namenode /启动名称节点
           2、然后在另一台nn上执行命令,将NameNode元数据目录的内容复制到另一个未格式化的NameNode
             $>hdfs namenode -bootstrapStandby
           3、启动所有节点        
             $>start-all.sh
            b)如果将非HA集群转换成HA集群,复制原NN的metadata到另一个nn.
                1.步骤一
                    [cnetos001]
                    $>scp -r /home/centos/hadoop/dfs centos@centos006:/home/centos/hadoop/
    
                2.步骤二
                    在新的nn(未格式化的nn)上运行一下命令,实现待命状态引导。
                    [centos006]
                    $>hdfs namenode -bootstrapStandby        //需要s201为启动状态,提示是否格式化,选择N.
                    
                3)在一个NN上执行以下命令,完成edit日志到jn节点的传输。
                    $>hdfs namenode -initializeSharedEdits
                    #查看centos002,centos003、centos004是否有edit数据. 
            4)启动所有节点. [centos001]
             $
    >hadoop-daemon.sh start namenode //启动名称节点
             $>hadoop-daemons.sh start datanode //启动所有数据节点
             [centos006]
             $
    >hadoop-daemon.sh start namenode //启动名称节点

    五、HA管理
    -----------------

      默认名称节点都为待命态,需要手动激活
    $>hdfs haadmin -transitionToActive nn1 //切成激活态 $>hdfs haadmin -transitionToStandby nn1 //切成待命态 $>hdfs haadmin -transitionToActive --forceactive nn2//强行激活 $>hdfs haadmin -failover nn1 nn2 //模拟容灾演示,从nn1切换到nn2
  • 相关阅读:
    android studio你可能忽视的细节——启动白屏?drawable和mipmap出现的意义?这里都有!!!
    提升用户体验,你不得不知道的事儿——三种提醒框的微技巧
    【无私分享】修订版干货!!!一个炫酷的自定义日历控件,摆脱日历时间选择烦恼,纯福利~
    【无私分享】干货!!!一个炫酷的自定义日历控件,摆脱日历时间选择烦恼,纯福利~
    放弃安卓原生TimePicker,选择wheelView打造更漂亮的时间get,以及动态拉伸输入框布局,这些,这里都有!
    快速入手别人的安卓项目??你信我,不会想错过这个~~~
    打造android偷懒神器———RecyclerView的万能适配器
    打造android偷懒神器———ListView的万能适配器
    一个可随意定位置的带色Toast——开源代码Crouton的简单使用
    Python学习笔记3-文件的简单操作
  • 原文地址:https://www.cnblogs.com/pinghengxing/p/12102825.html
Copyright © 2020-2023  润新知