• FineReport如何连接hadoop,hive,Impala数据库,Kerberos认证


    Hadoop是个很流行的分布式计算解决方案,Hive是基于hadoop的数据分析工具。一般来说我们对Hive的操作都是通过cli来进行,也就是Linux的控制台,但是,这样做本质上是每个连接都存放一个元数据,各个之间都不相同,这样的模式用来做一些测试比较合适,并不适合做产品的开发和应用。

    因此,就产生Hive的JDBC连接的方式。下面就通过报表组件FineReport向大家介绍。

    工具/原料 

     
    • 报表组件FineReport7.1.1
    • 大小:148.2M 适用平台:windows/linux

    方法/步骤 

     
    1. 1

      拷贝jar包到FR工程

      将hadoop里的hadoop-common.jar拷贝至报表工程appname/WEB-INF/lib下;

      将hive里的hive-exec.jar、hive-jdbc.jar、hive-metastore.jar、hive-service.jar、libfb303.jar、log4j.jar、slf4j-api.jar、slf4j-log4j12.jar拷贝至报表工程appname/WEB-INF/lib下。

    2. 2

      配置数据连接

      启动设计器,打开服务器>定义数据连接,新建JDBC连接。

      在Hive 0.11.0版本之前,只有HiveServer服务可用,在程序操作Hive之前,必须在Hive安装的服务器上打开HiveServer服务。而HiveServer本身存在很多问题(比如:安全性、并发性等);针对这些问题,Hive0.11.0版本提供了一个全新的服务:HiveServer2,这个很好的解决HiveServer存在的安全性、并发性等问题,所以下面我们分别介绍HiveServer和HiveServer2配置数据连接的方式。

    3. 3

      HiveServer

      数据库驱动:org.apache.hadoop.hive.jdbc.HiveDriver;

      URL:jdbc:hive://localhost:10000/default

      注:hive服务默认端口为10000,根据实际情况修改端口;另外目前只支持默认数据库名default,所有的Hive都支持。

      测试连接,提示连接成功即可。

      报表组件FineReport如何连接hadoop,hive数据库
    4. 4

      HiveServer2

      数据库驱动:org.apache.hive.jdbc.HiveDriver;

      URL:jdbc:hive2://localhost:10000/default

      注:该连接方式只支持Hive0.11.0及之后版本。

      报表组件FineReport如何连接hadoop,hive数据库
       
       
      Finereport连接Impala:
       
      https://help.fanruan.com/finereport/doc-view-2567.html、
       
       
       
       
  • 相关阅读:
    centos8防火墙设置
    算法名词释义
    Amazon AWS S3 云服务存储命令备份
    记一次svn迁移
    从 0 开始学架构架构设计的历史背景3
    Ribbon负载均衡架构图
    高效能人士的七个习惯
    从 0 开始学架构前阿里 P9 技术专家的实战架构心法1
    为什么要学习数据结构和算法?
    如何高效学习
  • 原文地址:https://www.cnblogs.com/xk-bench/p/15307053.html
Copyright © 2020-2023  润新知