1. 基本数据类型
Hive数据类型 | Java数据类型 | 长度 | 例子 |
---|---|---|---|
TINYINT | byte | 1byte有符号整数 | 20 |
SMALINT | short | 2byte有符号整数 | 20 |
INT | int | 4byte有符号整数 | 20 |
BIGINT | long | 8byte有符号整数 | 20 |
BOOLEAN | boolean | 布尔类型,true或者false | TRUE FALSE |
FLOAT | float | 单精度浮点数 | 3.14159 |
DOUBLE | double | 双精度浮点数 | 3.14159 |
STRING | string | 字符系列。可以指定字符集。可以使用单引号或者双引号。 | ‘now is the time’ “for all good men” |
TIMESTAMP | 时间类型 | ||
BINARY | 字节数组 | ||
deicimal | 任意精度的带符号小数 | 1.0 | |
varchar | 变长字符串 | "a", "b" | |
char | 固定长度字符串 | "a", "b" | |
binary | 字节数组 | ||
timestamp | 时间戳,纳秒精度 | 122327493795 | |
date | 日期 | 2018-04-07 |
Hive
的 String
类型相当于数据库的varchar
类型,该类型是一个可变的字符串,不过它不能声明其中最多能存储多少个字符,理论上它可以存储2GB的字符数;数据类型都是对 Java
中接口的实现,因此这些类型的具体行为细节和Java
中对应的类型是完全一致的
2. 集合数据类型
数据类型 | 描述 | 语法示例 |
---|---|---|
STRUCT | 和c语言中的struct类似,都可以通过“点”符号访问元素内容。例如,如果某个列的数据类型是STRUCT{first STRING, last STRING},那么第1个元素可以通过字段.first来引用。 | struct() |
MAP | MAP是一组键-值对元组集合,使用数组表示法可以访问数据。例如,如果某个列的数据类型是MAP,其中键->值对是’first’->’John’和’last’->’Doe’,那么可以通过字段名[‘last’]获取最后一个元素 | map() |
ARRAY | 数组是一组具有相同类型和名称的变量的集合。这些变量称为数组的元素,每个数组元素都有一个编号,编号从零开始。例如,数组值为[‘John’, ‘Doe’],那么第2个元素可以通过数组名[1]进行引用。 | Array() |
示例
1、创建表:
hive (hive_1)> create table test(
> name string,
> friends array<string>,
> children map<string, int>,
> address struct<street:string, city:string>
> )
> row format delimited fields terminated by ',' // 列分隔符
> collection items terminated by '_' // MAP STRUCT 和 ARRAY 的分隔符(数据分割符号)
> map keys terminated by ':' // MAP中的key与value的分隔符
> lines terminated by '\n'; // 行分隔符
OK
Time taken: 0.894 seconds
// 查看表结构
hive (hive_1)> desc test;
OK
col_name data_type comment
name string
friends array<string>
children map<string,int>
address struct<street:string,city:string>
Time taken: 0.593 seconds, Fetched: 4 row(s)
hive (hive_1)> load data local inpath '/home/hadoop/apps/my_code/test.txt' into table test;
Loading data to table hive_1.test
Table hive_1.test stats: [numFiles=1, totalSize=144]
OK
Time taken: 1.675 seconds
2、要插入的数据:
// [hadoop@hadoop1 apps]$ cat my_code/test.txt
songsong,bingbing_lili,xiao song:18_xiaoxiao song:19,hui long guan_beijing
yangyang,caicai_susu,xiao yang:18_xiaoxiao yang:19,chao yang_beijing
3、导入数据、查询:
hive (hive_1)> select * from test;
OK
test.name test.friends test.children test.address
songsong ["bingbing","lili"] {"xiao song":18,"xiaoxiao song":19} {"street":"hui long guan","city":"beijing"}
yangyang ["caicai","susu"] {"xiao yang":18,"xiaoxiao yang":19} {"street":"chao yang","city":"beijing"}
Time taken: 0.998 seconds, Fetched: 2 row(s)
hive (hive_1)> select friends[1], children['xiao song'], address.city from test where name='songsong';
OK
_c0 _c1 city
lili 18 beijing
Time taken: 0.792 seconds, Fetched: 1 row(s)
3. 类型转换
Hive
的院子数据类型可以隐式转换,类似于 Java
的类型转换,如:tinyint
会自动转换为 int
,但反过来就需要使用 cast
显示(转换)操作
隐式转换规则:
- 任何整数类型都可以隐式地转换为一个范围更广的类型,如:
tinyint -> int
- 所有整数类型、
float、string
都可以转为double
Boolean
不能转为其他任何类型
**cast 显示转换 **
// 把字符串'1' 转换成整数1,转换失败,返回 NULL
CAST('1' AS INT)
4. 数据格式
hive
数据默认存储在 hdfs
文件系统的 /user/hive/warehouse
目录下,默认数据格式:textfile
,不压缩,其他数据格式还有:SequenceFile、RCFile 、ORCFile、Parquet