• 大数据之路week07--day05 (Hive的搭建部署)


    在之前博客中我有记录安装JDK和Hadoop和Mysql的过程,如果还没有安装,请先进行安装配置好,对应的随笔我也提供了百度云下载连接。

    安装JDK:   https://www.cnblogs.com/wyh-study/p/12014368.html

    安装Hadoop   https://www.cnblogs.com/wyh-study/p/12043948.html

    安装Mysql     https://www.cnblogs.com/wyh-study/p/12044652.html

    (注意:安装mysql的时候一定要确保已经执行  :

    7.2  查看用户权限表: select user,host from user

    7.3 update user set host = '%' where user = 'root' (提示报错不用管,忽略)

    7.4 刷新权限:flush privileges

    这里提供本次需要的资料百度云  hive压缩包和mysql的加载驱动包

    链接:https://pan.baidu.com/s/1RwpHXHJlMEf7KcxgtR8T9g
    提取码:5cd1

    (以上准备工作已经做好后=========================)

    下面开始安装Hive 

    开始:  先启动Hadoop

     

    将两个包使用Xftp拖至soft目录下

    1、解压hive安装包

    tar -zxvf apache-hive-1.2.1-bin.tar.gz

    修改下目录名称

    mv apache-hive-1.2.1-bin hive-1.2.1

    2、备份配置文件

    cp hive-env.sh.template hive-env.sh

    cp hive-default.xml.template hive-site.xml

    3、修改配置hive的配置文件(在conf目录下)

    3.1 修改hive-env,sh

    加入三行内容(大家根据自己的情况来添加,每个人安装路径可能有所不同

    HADOOP_HOME=/usr/local/soft/hadoop-2.6.0

    JAVA_HOME=/usr/local/soft/jdk1.8.0_171

    HIVE_HOME=/usr/local/soft/hive-1.2.1

    3.2 修改hive-site.xml (找到对应的键对值进行修改,注意!!!是修改,而不是全部直接复制粘贴)

    (注意:修改自己安装mysql的主机地址)

    <property>

    <name>javax.jdo.option.ConnectionURL</name>

    <value>jdbc:mysql://192.168.1.80:3306/hive?createDatabaseIfNotExist=true</value>

    </property>

    (固定)

    <property>

    <name>javax.jdo.option.ConnectionDriverName</name>

    <value>com.mysql.jdbc.Driver</value>

    </property>

    (mysql的用户名)

    <property>

    <name>javax.jdo.option.ConnectionUserName</name>

    <value>root</value>

    </property>

    (mysql的用户密码)

    <property>

    <name>javax.jdo.option.ConnectionPassword</name>

    <value>123456</value>

    </property>

    (你的hive安装目录的tmp目录)

    <property>

    <name>hive.querylog.location</name>

    <value>/usr/local/soft/hive-1.2.1/tmp</value>

    </property>

    (同上)

    <property>

    <name>hive.exec.local.scratchdir</name>

    <value>/usr/local/soft/hive-1.2.1/tmp</value>

    </property>

    (同上)

    <property>

    <name>hive.downloaded.resources.dir</name>

    <value>/usr/local/soft/hive-1.2.1/tmp</value>

    </property>

    4、

    拷贝mysql驱动到$HIVE_HOME/lib目录下

    cp /usr/local/soft/mysql-connector-java-5.1.17.jar ../lib/

     

    5、

    hadoopjline-0.9.94.jarjar替换成hive的版本。

    hivejline-2.12.jar 位置在 /usr/local/soft/hive-1.2.1/lib/jline-2.12.jar

    Hadoop的删除

    rm -rf   /usr/local/soft/hadoop-2.6.0/share/hadoop/yarn/lib/jline-0.9.94.jar

    然后将hivejar拷过去hadoop下:

    命令:

    cp/usr/local/soft/hive-1.2.1/lib/jline-2.12.jar /usr/local/soft/hadoop-2.6.0/share/hadoop/yarn/lib/

    6、将hive的bin目录配置到环境变量中去

    再用source命令生效

     最后启动Hive

     命令: hive

  • 相关阅读:
    SQL Server 2005 学习笔记之触发器简介[转]
    什么是BCD 码
    关于C# 中的Attribute 特性
    也谈Asp.net 中的身份验证
    SQL Server 2005 创建分区表
    使用SerialPort 对象实现串口拨号器通信[下]
    子角色权限的实现
    SQL Server 中,实现 varbinary 与 varchar 类型之间的数据转换
    TSQL 常用排名函数
    关于ASP.NET 将数据导出成Excel 的总结[中]
  • 原文地址:https://www.cnblogs.com/wyh-study/p/12074901.html
Copyright © 2020-2023  润新知