• Hbase与hive集成与对比


     HBase与Hive的对比

    1.Hive

    (1) 数据仓库

    Hive的本质其实就相当于将HDFS中已经存储的文件在Mysql中做了一个双射关系,以方便使用HQL去管理查询。

    (2) 用于数据分析、清洗

    Hive适用于离线的数据分析和清洗,延迟较高。

    (3) 基于HDFS、MapReduce

    Hive存储的数据依旧在DataNode上,编写的HQL语句终将是转换为MapReduce代码执行。

    2.HBase

    (1) 数据库

    是一种面向列存储的非关系型数据库。

    (2) 用于存储结构化和非结构化的数据

    适用于单表非关系型数据的存储,不适合做关联查询,类似JOIN等操作。

    (3) 基于HDFS

    数据持久化存储的体现形式是Hfile,存放于DataNode中,被ResionServer以region的形式进行管理。

    (4) 延迟较低,接入在线业务使用

    面对大量的企业数据,HBase可以直线单表大量数据的存储,同时提供了高效的数据访问速度。

    6.4.2 HBase与Hive集成使用

    尖叫提示:HBase与Hive的集成在最新的两个版本中无法兼容。所以,我们只能含着泪勇敢的重新编译:hive-hbase-handler-1.2.2.jar!!好气!!

    环境准备

    因为我们后续可能会在操作Hive的同时对HBase也会产生影响,所以Hive需要持有操作HBase的Jar,那么接下来拷贝Hive所依赖的Jar包(或者使用软连接的形式)。

    export HBASE_HOME=/opt/module/hbase

    export HIVE_HOME=/opt/module/hive

     

    ln -s $HBASE_HOME/lib/hbase-common-1.3.1.jar  $HIVE_HOME/lib/hbase-common-1.3.1.jar

    ln -s $HBASE_HOME/lib/hbase-server-1.3.1.jar $HIVE_HOME/lib/hbase-server-1.3.1.jar

    ln -s $HBASE_HOME/lib/hbase-client-1.3.1.jar $HIVE_HOME/lib/hbase-client-1.3.1.jar

    ln -s $HBASE_HOME/lib/hbase-protocol-1.3.1.jar $HIVE_HOME/lib/hbase-protocol-1.3.1.jar

    ln -s $HBASE_HOME/lib/hbase-it-1.3.1.jar $HIVE_HOME/lib/hbase-it-1.3.1.jar

    ln -s $HBASE_HOME/lib/htrace-core-3.1.0-incubating.jar $HIVE_HOME/lib/htrace-core-3.1.0-incubating.jar

    ln -s $HBASE_HOME/lib/hbase-hadoop2-compat-1.3.1.jar $HIVE_HOME/lib/hbase-hadoop2-compat-1.3.1.jar

    ln -s $HBASE_HOME/lib/hbase-hadoop-compat-1.3.1.jar $HIVE_HOME/lib/hbase-hadoop-compat-1.3.1.jar

    同时在hive-site.xml中修改zookeeper的属性,如下:

    <property>

      <name>hive.zookeeper.quorum</name>

      <value>hadoop102,hadoop103,hadoop104</value>

      <description>The list of ZooKeeper servers to talk to. This is only needed for read/write locks.</description>

    </property>

    <property>

      <name>hive.zookeeper.client.port</name>

      <value>2181</value>

      <description>The port of ZooKeeper servers to talk to. This is only needed for read/write locks.</description>

    </property>

    1.案例一

    目标:建立Hive表,关联HBase表,插入数据到Hive表的同时能够影响HBase表。

    分步实现:

    (1) 在Hive中创建表同时关联HBase

    CREATE TABLE hive_hbase_emp_table(

    empno int,

    ename string,

    job string,

    mgr int,

    hiredate string,

    sal double,

    comm double,

    deptno int)

    STORED BY 'org.apache.hadoop.hive.hbase.HBaseStorageHandler'

    WITH SERDEPROPERTIES ("hbase.columns.mapping" = ":key,info:ename,info:job,info:mgr,info:hiredate,info:sal,info:comm,info:deptno")

    TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table");

    提示:完成之后,可以分别进入Hive和HBase查看,都生成了对应的表

    (2) 在Hive中创建临时中间表,用于load文件中的数据

    提示:不能将数据直接load进Hive所关联HBase的那张表中

    CREATE TABLE emp(

    empno int,

    ename string,

    job string,

    mgr int,

    hiredate string,

    sal double,

    comm double,

    deptno int)

    row format delimited fields terminated by ' ';

    (3) 向Hive中间表中load数据

    hive> load data local inpath '/home/admin/softwares/data/emp.txt' into table emp;

    (4) 通过insert命令将中间表中的数据导入到Hive关联HBase的那张表中

    hive> insert into table hive_hbase_emp_table select * from emp;

    (5) 查看Hive以及关联的HBase表中是否已经成功的同步插入了数据

    Hive:

    hive> select * from hive_hbase_emp_table;

    HBase:

    hbase> scan ‘hbase_emp_table’

    2.案例二

    目标:在HBase中已经存储了某一张表hbase_emp_table,然后在Hive中创建一个外部表来关联HBase中的hbase_emp_table这张表,使之可以借助Hive来分析HBase这张表中的数据。

    注:该案例2紧跟案例1的脚步,所以完成此案例前,请先完成案例1。

    分步实现:

    (1) 在Hive中创建外部表

    CREATE EXTERNAL TABLE relevance_hbase_emp(

    empno int,

    ename string,

    job string,

    mgr int,

    hiredate string,

    sal double,

    comm double,

    deptno int)

    STORED BY

    'org.apache.hadoop.hive.hbase.HBaseStorageHandler'

    WITH SERDEPROPERTIES ("hbase.columns.mapping" =

    ":key,info:ename,info:job,info:mgr,info:hiredate,info:sal,info:comm,info:deptno")

    TBLPROPERTIES ("hbase.table.name" = "hbase_emp_table");

    (2) 关联后就可以使用Hive函数进行一些分析操作了

    hive (default)> select * from relevance_hbase_emp;

  • 相关阅读:
    转: android emulator 命令详解
    ubuntu 环境变量PATH的修改
    ubuntu创建、删除文件及文件夹,强制清空回收站方法
    51单片机的P0口工作原理详细讲解
    smartconfig配置模式
    (网卡)混杂模式
    Scrapy shell使用
    Splash 笔记
    Lua一般都用来干什么,有什么优点
    python dict转json并保存文件
  • 原文地址:https://www.cnblogs.com/tesla-turing/p/11959954.html
Copyright © 2020-2023  润新知