1.分区表
分区实质:在数据表文件夹下再次创建分区文件夹
分区在创建表时用Partitioned By定义,创建表后可以使用Alter Table语句来增加或移除分区。
create table logs (ts bigint,line string)
partitioned by (dt string,country string)
Row Format Delimited Fields Terminated By ‘ ’ ;
Load数据时,显示指定分区值:
load data local inpath '/root/hive/file2'
into table logs
partition (dt='2001-01-01',country='GB');
更多数据文件加载到logs表之后,目录结构:
日志表中:两个日期分区 + 两个国家分区。数据文件则存放在底层目录中。
/user/hive/warehouse/logs /dt=2010-01-01/country=GB/file1
/file2
/country=US/file3
/dt=2010-01-02/country=GB/file4
/country=US/file5
/file6
- 注意:现在hdfs的 /user/hive/warehouse/logs 目录下,可以直接通过 hadoop fs -mkdir /book/nation=china 的方式创建一个形式上的分区文件夹,再向其中上传数据文件a.c。但通过hive语句查询,却不认这个分区里的数据,这是因为在Metastore文件中并没有保存此分区信息。
- 解决方案为:alter table book add partition (nation='china') location "/book/nation=china" 这种方式修改mysql中的元数据信息。
使用show partitions logs命令获得logs表中有那些分区:
dt=2001-01-01/country=GB
dt=2001-01-01/country=US
dt=2001-01-02/country=GB
dt=2001-01-02/country=US
显示表的结构信息:Describe logs;
ts bigint
line string
dt string
country string
# Partition Information
# col_name data_type comment
dt string
country string
- 需要注意,Partitioned by子句中的列定义是表中正式的列,称为“分区列”partition column。
- 但是,数据文件并不包含这些列的值,因为他们源于目录名。
- 可以在select语句中以普通方式使用分区列。Hive会对输入进行修剪,从而只扫描相关的分区。
- 还要注意,这个查询返回dt分区列的值。这个值是Hive从目录名中读取。
select ts,dt,line
from logs
where country='GB';
将只扫描file1,file2,file4。