• hadoop和Hive的数据处理流程


    需求

    场景:统计每日用户登陆总数

    每分钟的原始日志内容如下:

    http://www.blue.com/uid=xxxxxx&ip=xxxxxx

    假设只有两个字段,uid和ip,其中uid是用户的uid,是用户的唯一标识,ip是用户的登陆ip,每日的记录行数是10亿,要统计出一天用户登陆的总数。

    处理流程

    建表

    那么我们首先要在hive里建表,建表语句如下:

    复制代码
    CREATE TABLE login (
      uid  STRING,
      ip  STRING
    )
    PARTITIONED BY (dt STRING)
    ROW FORMAT DELIMITED
    FIELDS TERMINATED BY ','
    STORED AS TEXTFILE;
    复制代码

    其实表名是login,字段之间以,隔开,存储是TEXT,其次还以dt这个字段作为分区。

    创建成功之后,会看到hdfs上创建了/user/hive/warehouse/login这个目录。

    格式化原始日志

    将每天的每分钟的原始日志,转换成以下文件格式

    123,17.6.2.6
    112,11.3.6.2
    ………..

    根据文件大小,合并文件,例如合并为24个文件。

    入库

    格式完毕,就可以把数据入库到hive了,假设今天是执行命令

    LOAD DATA  INPATH '/data/login/20120713/*' OVERWRITE INTO TABLE login PARTITION (dt='20120713');

    执行成功会,转换过的文件会上传到hdfs的/user/hive/warehouse/login/dt=20120713这个目录里。

    分析

    在hive执行以下语句

    select count(distinct uid) from login where dt=’ 20120713’;

    使用dt这个分区条件查询,就可以避免hive去查询其他分区的文件,减少IO操作,这个是hive分区很重要的特性,也是以天为单位,作为login表分区的重要意义。

    执行完毕后,就可以在命令里出现结果,一般通过管道执行hive shell命令,读取管道的内容,把结果入库到mysql里就完成了分析了。

    来源:http://www.cnblogs.com/ggjucheng/archive/2012/07/25/2608757.html#2601110   


    微信公众号: 猿人谷
    如果您认为阅读这篇博客让您有些收获,不妨点击一下右下角的【推荐】
    如果您希望与我交流互动,欢迎关注微信公众号
    本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接。

  • 相关阅读:
    Xcode6中如何添加pch文件
    iOS 在UILabel显示不同的字体和颜色
    IOS 获取手机ip地址
    获取设备基本信息
    [__NSCFConstantString size]: unrecognized selector sent to instance 错误
    控制器之间的跳转,多层的跳转
    Multiple build commands for output file
    Can't find keyplane that supports type 4 for keyboard iPhone-Portrait-NumberPad; using 3876877096_Portrait_iPhone-Simple-Pad_Default
    Activity的生命之路
    Spring自定义标签
  • 原文地址:https://www.cnblogs.com/heyonggang/p/2866697.html
Copyright © 2020-2023  润新知