• [原创]全分布模式下 HBase 安装


    在三台CentOS虚拟机server1,server2, server3上已经成功安装全分布模式的Hadoop集群,其中server1NameNode,server2, server3DataNode。在此基础上安装HBase全分布模式集群,server1HMaster,server2, server3HRegionServer

     

    1. 下载hbase-0.90.5并解压

    [原创]全分布模式下 <wbr>HBase <wbr>安装

    2. 修改hbase-env.sh,配置相应的环境变量

    [原创]全分布模式下 <wbr>HBase <wbr>安装

    配置JAVA_HOME为已安装的JDK目录

    [原创]全分布模式下 <wbr>HBase <wbr>安装

    配置HBASE_CLASSPATH 已安装的Hadoop下的conf目录

    [原创]全分布模式下 <wbr>HBase <wbr>安装

    设置HBASE_MANAGES_ZK true,即使用HBase自带的ZooKeeper管理集群

    [原创]全分布模式下 <wbr>HBase <wbr>安装

    3. 修改hbase-site.xml

    [原创]全分布模式下 <wbr>HBase <wbr>安装

     

    配置相应的参数:

    hbase.rootdir  设置为hdfs://server1:9000/hbase ,从而与现有的Hadoop集群相关联,

    hbase.cluster.distributed设置为true,表示是全分布模式

    hbase.master 设置为server1:60000,指定了HMaster的位置和端口

    hbase.zookeeper.quorum设置为server1,server2,server3 指定zookeeper管理的机器

    hbase.zookeeper.property.dataDir 设置为/home/admin/hbase-0.90.5/zookeeper,指定zookeeper文件放置的位置

    [原创]全分布模式下 <wbr>HBase <wbr>安装

    4. 修改regionservers文件

    [原创]全分布模式下 <wbr>HBase <wbr>安装

    server2 server3 指定为regionserver

    [原创]全分布模式下 <wbr>HBase <wbr>安装

     

    5. 为解决HadoopHBase的版本兼容问题,先将Hbase lib 目录下的文件hadoop-core-0.20-append-r1056497.jar删除,再将Hadoop中的 文件hadoop-0.20.2-core.jar 复制到 Hbase lib 目录下

    [原创]全分布模式下 <wbr>HBase <wbr>安装

     

    6. 本人原先没有在HBase中的lib目录先加入jarcommons-configuration-1.6.jar,发现HBase虽然能够启动,但是无法工作,60010端口的web页面无法打开,在hbaseshell下面无法进行表的操作。查阅网上文章,说要将Hadooplib目录下的commons-configuration-1.6.jar加入HBase中的lib目录,但是本人在自己安装的Hadooplib目录下并没有发现commons-configuration包。于是从apache网站上下载了commons-configuration-1.6.jar,加入Hbaselib目录下。

    [原创]全分布模式下 <wbr>HBase <wbr>安装

    7. HBase 目录分发到server2 server3 

    [原创]全分布模式下 <wbr>HBase <wbr>安装

    [原创]全分布模式下 <wbr>HBase <wbr>安装

    8. 启动HBase

    [原创]全分布模式下 <wbr>HBase <wbr>安装

    查看结果,server1

    [原创]全分布模式下 <wbr>HBase <wbr>安装

    server2

    [原创]全分布模式下 <wbr>HBase <wbr>安装

    server3

    [原创]全分布模式下 <wbr>HBase <wbr>安装

    查看web页面

    [原创]全分布模式下 <wbr>HBase <wbr>安装

    上面说You arecurrently running the HMaster without HDFS append support enabled.This may result in data loss. HMaster 所使用的HDFS 不支持append,会导致数据丢失。查看HBasewiki,上面说HDFS 0.20 只支持该特性,只能使用更高版本的HDFS才能解决这一问题。故而此问题只能在安装更高版本的Hadoop后方能解决。

  • 相关阅读:
    python_摘要_加密
    python_计算器
    python_选课系统
    飞行员配对方案问题 【网络流24题】
    方格取数 【网络流24题】【最小割】
    P2402 奶牛隐藏【二分】【最大流】
    P2172 [国家集训队]部落战争【最小路径覆盖】
    最小路径覆盖问题【网络流24题】
    P2057 [SHOI2007]善意的投票 / [JLOI2010]冠军调查 [最小割] [二分图]
    P2053 [SCOI2007]修车【zkw费用流】
  • 原文地址:https://www.cnblogs.com/leeeee/p/7276669.html
Copyright © 2020-2023  润新知