• Hive Row Formats&SerDe


    Serde是 Serializer/Deserializer的简写。hive使用Serde进行行对象的序列与反序列化。

    What is a SerDe?

    SerDe is a short name for "Serializer and Deserializer."
    Hive uses SerDe (and FileFormat) to read and write table rows.
    HDFS files --> InputFileFormat --> <key, value> --> Deserializer --> Row object
    Row object --> Serializer --> <key, value> --> OutputFileFormat --> HDFS files

    当是读取hdfs文件时key部分将会被忽略,在写入hdfs时key总是一个常量,一般的行的数据是存储在value中的。

    用户在建表的时候可以自定义 SerDe 或者使用自带的 SerDe。如果没有指定 ROW FORMAT 或者 ROW FORMAT DELIMITED,将会使用自带的 SerDe。

    你可以创建表时使用用户自定义的Serde或者native Serde,如果 ROW FORMAT没有指定或者指定了 ROW FORMAT DELIMITED就会使用native Serde。hive已经实现了许多自定义的Serde,之前我们在介绍stored时也涉及到:

    Avro (Hive 0.9.1 and later) 
    ORC (Hive 0.11 and later) 
    RegEx 
    Thrift 
    Parquet (Hive 0.13 and later) 
    CSV (Hive 0.14 and later) 
    JsonSerDe (Hive 0.12 and later)

    RegEx

    ROW FORMAT SERDE
    'org.apache.hadoop.hive.serde2.RegexSerDe'
    WITH SERDEPROPERTIES 
    (
    "input.regex" = "<regex>"
    )
    STORED AS TEXTFILE;

    使用正则来序列化行数据,如下例子

    CREATE TABLE apachelog (
      host STRING,
      identity STRING,
      user STRING,
      time STRING,
      request STRING,
      status STRING,
      size STRING,
      referer STRING,
      agent STRING)
    ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.RegexSerDe'
    WITH SERDEPROPERTIES (
      "input.regex" = "([^]*) ([^]*) ([^]*) (-|\[^\]*\]) ([^ "]*|"[^"]*") (-|[0-9]*) (-|[0-9]*)(?: ([^ "]*|".*") ([^ "]*|".*"))?"
    )
    STORED AS TEXTFILE;

    json

    按照json格式存储text文件

    ROW FORMAT SERDE 
    'org.apache.hive.hcatalog.data.JsonSerDe' 
    STORED AS TEXTFILE
    
    
    ADD JAR /usr/lib/hive-hcatalog/lib/hive-hcatalog-core.jar;
    
    CREATE TABLE my_table(a string, b bigint, ...)
    ROW FORMAT SERDE 'org.apache.hive.hcatalog.data.JsonSerDe'
    STORED AS TEXTFILE;

    CSV/TSV
    按照 CSV / TSV格式来存储text文件。
    ROW FORMAT SERDE
    ‘org.apache.hadoop.hive.serde2.OpenCSVSerde’
    STORED AS TEXTFILE

    如下例子创建tsv文件,默认是csv文件的分隔符

    CREATE TABLE my_table(a string, b string, ...)
    ROW FORMAT SERDE 'org.apache.hadoop.hive.serde2.OpenCSVSerde'
    WITH SERDEPROPERTIES (
       "separatorChar" = "	",
       "quoteChar"     = "'",
       "escapeChar"    = "\"
    )  
    STORED AS TEXTFILE;

    hive的CSVSerde基于csv-serde实现。

    其他Serde
    1.MetadataTypedColumnsetSerDe
    这个SerDe用来读写像csv文件那样的记录
    2.LazySimpleSerDe
    不指定Serde时,默认使用的Serde。
    3.ThriftSerDe
    读写Thrift对象或者文件,Thrift对象的类文件需要提前导入。
    4.DynamicSerDe
    也是用来读写Thrift对象或者文件。但是它能够理解Thrift DDL,因此可以再运行时提供 schema对象。
    若是想对以上serde有深入的了解,看源码。

    Serialized format:
        Delimited format (tab, comma, ctrl-a …)
        Thrift Protocols
        ProtocolBuffer*
    Deserialized (in-memory) format:
        Java Integer/String/ArrayList/HashMap
        Hadoop Writable classes
        User-defined Java Classes (Thrift, ProtocolBuffer*)

     

  • 相关阅读:
    关于ARMv8另外几个问题
    C++中的内存区域及其性能特征
    外点惩处函数法·约束优化问题
    【LaTeX排版】LaTeX论文模版
    fatal error: vector: No such file or directory
    【UNIX网络编程(三)】TCP客户/server程序演示样例
    LOJ#6437. 「PKUSC2018」PKUSC
    mybatis 学习一 建立maven项目
    maven学习5 构建MyBatis项目
    maven学习4 使用Maven构建Spring项目
  • 原文地址:https://www.cnblogs.com/itboys/p/12796300.html
Copyright © 2020-2023  润新知