• hive HQL笔记


    #建表

    create table sign_in (uri string , test string) row format delimited fields terminated by ‘|’;

    #假设不存在表则创建

    create table if not exists mytable (id bigint,name string);

    #创建外部表

    hive> create external table lss_sign_in  (uri string,token string)  row format delimited fields terminated by ' ’  ;

    #从HDFS载入数据到表

    hive> load data inpath 'hdfs:/user/root/input/sign_in/sign.uri' overwrite into table lss_sign_in;


    #本地文件载入到hive 仓库:

    hive> LOAD DATA LOCAL INPATH '/user/test.txt' OVERWRITE INTO TABLE lss;


    #从HDFD载入到HIVE 仓库(注意这里记载完毕后会删除掉HDFS上的文件)

    hive> LOAD DATA INPATH 'hdfs:/user/root/input/test.txt' OVERWRITE INTO TABLE kevin;    

    Loading data to table default.kevin

    Deleted hdfs://ixx-test-124:9019/user/hive/warehouse/kevin

    尽管源文件表面上看是在HDFS删除了。事实上文件被移到hive HDFS数据仓库中去了。

    默认数据库仓库的文件保存在: /user/hive/warehouse/

    当中kevin相应的HIVE中得元数据表名称。

    test.txt就是源文件,从本地载入文件和HDFS载入文件类似。

    ./hadoop fs -text /user/hive/warehouse/kevin/test.txt  


    #查看表结构

    describe tableName;

    id      int

    name    string

    age     int

    也能够使用:desc tableName。


    #显示全部函数

    show functions;

    #查看函数用法

    hive> describe function substr;

    substr(str, pos[, len]) - returns the substring of str that starts at pos and is of length len




    #依据URI分组,count(uri) 能够统计URI的PV

    hive> select uri,count(uri) from sign_in group by uri;

    #统计UV

    hive> select uri, count(distinct koudaitoken) from sign_in group by uri;    


    #也相同支持 limit 

    #改动表结构

    hive> alter table sign_in_uri replace columns(uri string);         


    #把Select结果插入到表中

    insert overwrite table sign_in_uri    select uri from sign_in group by uri;

    #链接查询

    #左链接

     select sign_in.*,sign_in_uri.* from sign_in_uri left outer join sign_in on(sign_in_uri.uri = sign_in.uri);

    #右链接

    select sign_in.*,sign_in_uri.* from sign_in_uri right outer join sign_in on(sign_in_uri.uri = sign_in.uri) ;

    #全链接

    hive> select sign_in.*,sign_in_uri.* from sign_in_uri full outer join sign_in on(sign_in_uri.uri = sign_in.uri) limit 100; 

    #in 查询(hive不支持IN)使用semi join 达到类似效果

    hive> select sign_in_uri.* from sign_in_uri left semi join sign_in on(sign_in_uri.uri = sign_in.uri) limit 10;


    使用正则

    hive> select regexp_extract(koudaitoken,'\[.*\]',0) from sign_in limit 10;

    #查看函数用法

    hive> describe function regexp_extract  

    regexp_extract(str, regexp[, idx]) - extracts a group that matches regexp


    #注意写入HDFS或本地文件夹时会删除掉文件夹下的内容。  

    #将Hive数据导出到本地文件夹

    hive> insert overwrite local directory '/luanshoushen/hive' select * from sign_in_uri;

    #将Hive数据导出到HDFS

    hive> insert overwrite directory 'user/root/input/hive' select * from sign_in;

    #使用一个查询将结果写入HDFS文件夹和本地文件夹

    hive> from sign_in 

        > insert overwrite local directory '/luanshoushen/hive' select * 

        > insert overwrite directory '/user/root/input/' select * 

        > ;

  • 相关阅读:
    Orcale分析函数OVER(PARTITION BY... ORDER BY...)的讲解
    Linux下安装Redmine(项目管理软件)
    CentOS5.4安装redmine详细步骤
    CentOS安装redmine 2后的简单配置
    在linux上安装redmine
    Linux安装MediaWiki
    Linux下安装配置MediaWiKi全过程
    用Navicat_SSH 连接数据库服务器
    基于C#的MongoDB数据库开发应用(4)--Redis的安装及使用
    基于C#的MongoDB数据库开发应用(3)--MongoDB数据库的C#开发之异步接口
  • 原文地址:https://www.cnblogs.com/ldxsuanfa/p/10873457.html
  • Copyright © 2020-2023  润新知