• Hadoop生态常用数据模型


    Hadoop生态常用数据模型

    一、TextFile

    二、SequenceFile

    1、特性

    2、存储结构

    3、压缩结构与读取过程

    4、读写操作

    三、Avro

    1、特性

    2、数据类型

    3、avro-tools应用

    4、在Hive中使用Avro

    5、在Spark中使用Avro

    四、Parquet

    1、特性

    2、数据结构

    3、Java API

    4、Parquet On Spark

    5、Parquet On Hive

    五、RC&ORC

    1、特性

    2、存储结构RC (Record Columnar)ORC(Optimized Row Columnar)

    3、ORC  On Java

    4、ORC On Hive

    5、ORC On Spark

    六、总结&应用场景

    1、相同点

    2、不同点

    1). AVRO:

    2). ORC:

    3). Parquet:

    3、如何选择平台兼容性:如何选择不同的数据格式不同数据格式最佳实践

    一、TextFile

    • 通常采用CSV、JSON等固度长度的纯文本格式

      • 优点:

        1. 数据交换方便
        2. 易读
      • 缺点:

        1. 数据存储量庞大
        2. 查询效率较低
        3. 不支持块压缩

    二、SequenceFile

    1、特性

    • 按行存储键值对为二进制数据,以<Key,Value>形式序列化为二进制文件,HDFS自带

      • 支持压缩和分割
      • Hadoop中的小文件合并
      • 常用于在MapReduce作业之间传输数据
    • SequenceFile中的Key和Value可以是任意类型的Writable(org.apache.hadoop.io.Writable)

    • Java API :org.apache.hadoop.io.SequenceFile

    2、存储结构

    • 记录结构 : 文件头——(多条记录+同步块)*

    • 块结构 :文件头——(数据块+同步块)*

    3、压缩结构与读取过程

    • 记录级:io.seqfile.compression.type=RECORD

    • 块级:io.seqfile.compression.type=BLOCK7

    ———————————————————————————————————————————

    Q:记录级压缩是如何存储的 ?

    A:记录级仅压缩value数据,按byte的偏移量索引数据。每个记录头为两个固定长度为4的数据量,一个代表本条Record的长度,一个代表Key值的长度,随后依次存储key值和压缩的value值。

    模拟读取过程如下,首先偏移4获得本条记录长度r,然后偏移4获得key类型的长度k,再偏移k读入key的值,最后偏移到位置r,获取压缩后的value值,本条记录读完。

    Q:块级压缩是如何存储的 ?

    A:块级压缩同时压缩key和value,相同特性的记录将会被归为同一块。块头为定长4byte的代表本块所含的记录数目n、定长4byte的代表压缩后的key的长度的k、压缩后的key值组、定长4byte的达标压缩后的value的长度的v、压缩后的value值组。(n,k_length,k, v_length,v)

    模拟读取过程如下,首先偏移4byte,获取当前块存储的记录数目n;偏移4byte,获取压缩后的key类型的长度k,再偏移n*k读入多个key值分别存储;偏移4byte,获取压缩后的value类型的长度v,再偏移n*v读入多个value值分别对应key值。

    ———————————————————————————————————————————

    4、读写操作

    • 读写操作

      • SequenceFile.Writer (指定为块压缩)
      • SequenceFile.Reader(读取时能够自动解压)
    • 在Hive中使用SequenceFile

      //1.方式一
      STORED AS sequencefile
      //2.方式二显示指定
      STORED AS INPUTFORMAT   'org.apache.hadoop.mapred.SequenceFileInputFormat' 
      OUTPUTFORMAT  'org.apache.hadoop.hive.ql.io.HiveSequenceFileOutputFormat'
      
    • 在Spark中使用SequenceFile

      val rdd=sc.sequenceFile[Int,String]("/tmp/myseqfile.seq")		//装载
      rdd.saveAsSequenceFile("/tmp/seq")						//存储
      

    三、Avro

    1、特性

    Apache Avro也是一个数据序列化系统,数据定义以JSON格式存储,数据内容以二进制格式存储。

    • 丰富的数据结构,被设计用于满足Schema Evolution
    • Schema和数据分开保存
    • 基于行存储
    • 快速可压缩的二进制数据格式
    • 容器文件用于持久化数据
    • 自带远程过程调用RPC
    • 动态语言可以方便地处理Avro数据

    优点:

    1. 高扩展的Schema,为Schema Evolution而生。
    2. 数据压缩快

    2、数据类型

    基本数据类型:null, boolean, int, long, float, double, bytes, string

    复杂数据类型:record、enum、array、map、union、fixed

    //user.json
    {"name": "Alyssa", "favorite_number": 256, "favorite_color": "black"}
    {"name": "Ben", "favorite_number": 7, "favorite_color": "red"}
    {"name": "Charlie", "favorite_number": 12, "favorite_color": "blue"}
    //user.avsc定义了User对象的Schema
    {
    "namespace": "example.avro",
     "type": "record",
     "name": "User",
     "fields": [
        {"name": "name", "type": "string"},
         {"name": "favorite_number",  "type": "int"},
         {"name": "favorite_color", "type": "string"}
     ]}
    

    3、avro-tools应用

    • 使用schema+data生成avro文件
    java -jar avro-tools-1.8.2.jar fromjson --schema-file user.avsc user.json > user.avro
    java -jar avro-tools-1.8.2.jar fromjson --codec snappy --schema-file user.avsc user.json > user.avro
    
    • avro转json
    java -jar avro-tools-1.8.2.jar tojson user.avro
    java -jar avro-tools-1.8.2.jar tojson user.avro --pretty
    
    • 获取avro元数据
    java -jar avro-tools-1.8.2.jar getmeta user.avro
    

    4、在Hive中使用Avro

    create table CUSTOMERS 
    row format serde 'org.apache.hadoop.hive.serde2.avro.AvroSerDe' 
    stored as inputformat 'org.apache.hadoop.hive.ql.io.avro.AvroContainerInputFormat' 
    outputformat 'org.apache.hadoop.hive.ql.io.avro.AvroContainerOutputFormat' 
    tblproperties ('avro.schema.literal'='{ 
    	     "name": "customer", "type": "record", 
                  "fields": [ 
    	    {"name":"firstName", "type":"string"}, {"name":"lastName", "type":"string"}, 
                  {"name":"age", "type":"int"}, {"name":"salary", "type":"double"}, 
                  {"name":"department", "type":"string"}, {"name":"title", "type":"string"},
                  {"name": "address", "type": "string"}]}'); 
    
    //外部表
    create external table user_avro_ext(name string,favorite_number int,favorite_color string) 
    stored as avro 
    location '/tmp/avro'; 
    

    5、在Spark中使用Avro

    拷贝spark-avro_2.11-4.0.0.jar包到Spark目录下的jars目录下。

    //需要spark-avro
    import com.databricks.spark.avro._
    //装载
    val df = spark.read.format("com.databricks.spark.avro").load("input dir")
    //存储
    df.filter("age > 5").write.format("com.databricks.spark.avro").save("output dir")
    

    四、Parquet

    Apache Parquet是Hadoop生态系统中任何项目都可用的列式存储格式

    • Parquet是Spark SQL默认数据源

    1、特性

    • Spark SQL的默认数据源
    • 列式存储,写入性能差,但是可以按需读取列
    • 压缩编码,降低空间占用

    2、数据结构

    按照行将数据物理上划分为多个组,每一个行组包含一定的行数,通常行组大小等于HDFS块大小

    • 行组Row Group
    • 列块Column Chunk
    • 页Page

    3、Java API

    MessageType schema=MessageTypeParser
                                 .parseMessageType(schemaStr);
    ParquetWriter<Group> writer=ExampleParquetWriter
                                 .builder(file).withType(schema).build();
    SimpleGroupFactory groupFactory 
                                 = new SimpleGroupFactory(schema);
    Group group1=groupFactory.newGroup();
    group1.add("name","jason");
    group1.add("age",9);
    gropu1.addGroup("family").append("father","XXX")
                                                       .append("mother","XXX");
    writer.write(group1);
    
    //Reader
    ParquetReader<Group> reader = ParquetReader
    .builder(new GroupReadSupport(), file)
    .build();
    SimpleGroup group =(SimpleGroup) reader.read();
    System.out.println("schema:" +     
                                                         group.getType().toString());
    System.out.println(group.toString());
    
    

    4、Parquet On Spark

    val df=sc.makeRDD(Seq(("jason",19),("tom",18))).toDF("name","age")
    //写parquet文件
    df.write.save("/tmp/parquet")
    //读parquet文件
    val df1=spark.read.load("/tmp/parquet")
    df1.show
    如果发生数据的模式演化 Schema Evolution ,即新数据的Schema发生变化。可以使用option(mergeSchema,true)读入,但是非常耗费资源。
    

    5、Parquet On Hive

    create external table parquet_table(name string,age int) 
    stored as parquet 
    location '/tmp/parquet';
    

    五、RC&ORC

    1、特性

    1. 存储行集合,并在集合中以列格式存储行数据
    2. 引入轻量级索引,允许跳过不相关的行块
    3. 可分割:允许并行处理行集合
    4. 可压缩

    2、存储结构

    RC (Record Columnar)

    • 集行存储与列存储的优点于一身
    • 设计思想与Parquet类似,先按行水平切割为多个行组,再对每个行组内的数据按列存储

    ORC(Optimized Row Columnar)

    • Stripe

      • 每个ORC文件首先会被横向切分成多个Stripe
      • 每个stripe默认的大小是250MB
      • 每个stripe由多组(Row Groups)行数据组成
    • IndexData

      • 保存了该stripe上数据的位置,总行数
    • RowData

      • 以stream的形式保存数据
    • Stripe Footer

      • 包含该stripe统计结果:Max,Min,count等信息
    • FileFooter

      • 该表的统计结果
      • 各个Stripe的位置信息
    • Postscript

      • 该表的行数,压缩参数,压缩大小,列等信息

    3、ORC On Java

    TypeDescription schema = TypeDescription.fromString(
                                                        "struct<name:string,age:int>");
    Writer writer = OrcFile.createWriter(
               file,OrcFile.writerOptions(conf).setSchema(schema));
    VectorizedRowBatch batch=schema.createRowBatch();
    BytesColumnVector name = 
                                               (BytesColumnVector) batch.cols[0];
    name.setVal(0,"jason".getBytes());
    ...
    
    //
    
    Reader reader=OrcFile.createReader(
    					file,OrcFile.readerOptions(conf));
    RecordReader rows = reader.rows();
    VectorizedRowBatch batch = reader
    					.getSchema().createRowBatch();
     while (rows.nextBatch(batch)) {...}
    
    

    4、ORC On Hive

    create external table user_orc_ext(
    name string,
    age int
    ) 
    stored as orc 
    location '/tmp/users/orc'
    
    

    5、ORC On Spark

    val df=spark.read.format("orc").load("/tmp/user.orc")
    df.show
    

    六、总结&应用场景

    File TypeSplittableBlock CompressibleSchema EvolutionHiveSparkRemark
    Text/CSV Yes No No Yes Yes  
    XML/JSON No No Yes ? Yes  
    AvroFile Yes Yes Yes Yes Yes 模式演化好
    SequenceFile Yes Yes Yes Yes Yes  
    RCFile Yes Yes No Yes Yes Columnar Storage
    ORCFile Yes Yes No Yes Yes Columnar Storage
    ParquetFile Yes Yes Yes Yes Yes Columnar Storage

    1、相同点

    1、基于Hadoop文件系统优化出的存储结构

    2、提供高效的压缩

    3、二进制存储格式

    4、文件可分割,具有很强的伸缩性和并行处理能力

    5、使用schema进行自我描述

    6、属于线上格式,可以在Hadoop节点之间传递数据

    2、不同点

    1). AVRO:
    1. 主要为行存储
    2. 设计的主要目标是为了满足schema evolution
    3. schema和数据分开保存(同一目录,不同文件)
    2). ORC:
    1. 面向列的存储格式
    2. 由Hadoop中RC files 发展而来,比RC file更大的压缩比,和更快的查询速度
    3. Schema 存储在footer中
    4. 不支持schema evolution
    5. 支持事务(ACID)
    6. 为hive而生,在许多non-hive MapReduce的大数据组件中不支持使用
    7. 高度压缩比并包含索引
    3). Parquet:
    1. 与ORC类似,基于Google dremel
    2. Schema 存储在footer
    3. 列式存储
    4. 高度压缩比并包含索引
    5. 相比ORC的局限性,parquet支持的大数据组件范围更广

    3、如何选择

    • Avro——查询随时间变化的数据集(模式演变)
    • Parquet ——适合在宽表上查询少数列(列式存储)
    • Parquet & ORC以牺牲写性能为代价优化读取性能(列式存储)
    • TextFile 读起来很慢(逐行读取)
    • Hive 查询快慢:ORC >>Parquet>>Text>>Avro>>SequenceFile
    平台兼容性:
    • ORC常用于Hive、Presto;
    • Parquet常用于Impala、Drill、Spark、Arrow;
    • Avro常用于Kafka、Druid。
    如何选择不同的数据格式

    考虑因素:

    1. 读写速度
    2. 按行读多还是按列读多
    3. 是否支持文件分割
    4. 压缩率
    5. 是否支持schema evolution
    不同数据格式最佳实践
    1. 读取少数列可以选择面向列存储的ORC或者Parquet
    2. 如果需要读取的列比较多,选择AVRO更优
    3. 如果schema 变更频繁最佳选择avro
    4. 实际上随着版本不断更新,现在parquet和orc都在一定程度上支持schema evolution,比如最后面加列
    5. ORC的查询性能优于Parquet
  • 相关阅读:
    [Redux] Extracting Container Components (FilterLink)
    [Regular Expressions] Introduction
    [Javascript] Web APIs: Persisting browser data with window.localStorage
    [Javascript] The JSON.stringify API
    [Redux] Extracting Presentational Components -- TodoApp
    [Redux] Extracting Presentational Components -- Todo, TodoList
    [Redux] Extracting Presentational Components -- Footer, FilterLink
    [Redux] Extracting Presentational Components -- AddTodo
    [Javascript] Task queue & Event loop.
    吸尘器:吸尘器
  • 原文地址:https://www.cnblogs.com/whoyoung/p/11424258.html
Copyright © 2020-2023  润新知