Hive入门

介绍

Hive 是一个基于 Hadoop 的数据仓库工具,它可以将结构化数据文件映射成一张表,然后通过类似 SQL 的查询语句来执行查询。这些查询语句在Hive中被称作HQL,这些 HQL 会被翻译成 MapReduce 作业来执行。

Hive 把表和字段转换成 HDFS 中的文件夹和文件,并将这些元数据保持在关系型数据库中,如 derby 或 mysql。

Hive 查询的数据存储在HDFS上,运行在Yarn上。

Hive 适合做离线数据分析,如:批量处理和延时要求不高场景。

安装

安装 Hadoop

由于 Hive 是基于 Hadoop 的,所以需要先准备一个 Hadoop 环境。Hadoop 的安装参考我前面的文章。

安装 Hive

首先从下面地址下载最新版本的 Hive,这里我们使用 2.3.2 版。

  • https://dist.apache.org/repos/dist/release/hive/hive-2.3.2/

下载并解压安装包

$ wget -c https://dist.apache.org/repos/dist/release/hive/hive-2.3.2/apache-hive-2.3.2-bin.tar.gz
$ tar zxvf apache-hive-2.3.2-bin.tar.gz
$ cd apache-hive-2.3.2-bin

设置环境变量

$ export JAVA_HOME=/opt/jdk8
$ export HADOOP_HOME=/apps/hadoop-3.0.0
$ export HIVE_HOME=/apps/apache-hive-2.3.2-bin

初始化 Derby 数据库,Hive 默认使用 Derby 数据库来保存元数据。生产环境建议使用 Mysql。

$ bin/schematool -dbType derby -initSchema

运行 Hive

启动 Shell

通常我们使用 Hive 都是使用命令行工具来执行一些数据的更新和查询,下面命令就会启动 Hive 的命令行终端。

$ bin/hive
> hive

查看表

hive> show tables;

创建表

hive> CREATE TABLE users(id int, username string, password string) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',';

插入查询数据

这里我们先准备一个数据文件 users.dat,内容如下:

1,user1,password1
2,user2,password2
3,user3,password3
4,user4,password4
5,user5,password5

向数据表导入数据

# 从本地文件系统导入
hive> LOAD DATA LOCAL INPATH '/tmp/users.dat' INTO TABLE users;

# 从 HDFS 导入
hive> LOAD DATA INPATH '/tmp/users.dat' INTO TABLE users;

导入数据后,使用 HQL 来查询结果

hive> select * from users;
OK
1       user1   password1
2       user2   password2
3       user3   password3
4       user4   password4
5       user5   password5

此时,我们查看一下这些数据在 HDFS 上是怎样存储的,我在查看

hive> dfs -ls /user/hive/warehouse/users
Found 1 items
-rwxr-xr-x   2 jhadmin supergroup         54 2018-02-05 00:14 /user/hive/warehouse/users/users.dat

hive> dfs -cat /user/hive/warehouse/users/users.dat
1,user1,password1
2,user2,password2
3,user3,password3
4,user4,password4
5,user5,password5

下面我们再插入一条记录看看,此时终端会出现MapReduce作业的相关信息。

hive> INSERT INTO TABLE users(id, username, password) values (6, 'user6', 'password6');
... (MapReduce Job output)
hive> select * from users;
OK
6       user6   password6
1       user1   password1
2       user2   password2
3       user3   password3
4       user4   password4
5       user5   password5

查看一下 HDFS 的文件信息,可以看到新添加了一个文件000000_0,其中保存着上面插入语句保存的数据。

hive> dfs -ls /user/hive/warehouse/users
Found 2 items
-rwxr-xr-x   2 jhadmin supergroup         22 2018-02-05 00:26 /user/hive/warehouse/users/000000_0
-rwxr-xr-x   2 jhadmin supergroup         54 2018-02-05 00:14 /user/hive/warehouse/users/users.dat

hive> dfs -cat /user/hive/warehouse/users/000000_0
6,username6,password6

从上面的结果可以看到,每次单独的 INSERT 语句都会至少产生一个文件,因此在生产环境下还是要避免这样的插入操作,而应该使用批量导入来写入数据。

上面的查询语句 “select * from users;” 太简单,以至于看不出他是不是使用的 MapReduce 作业来执行查询的,下面我们把查询语句稍微修改一下,就可以看出 Hive 会把 HQL 转换成 MapReduce 作业来执行了。

hive> select * from users order by id;
... (MapReduce Job output)
OK
1       user1   password1
2       user2   password2
3       user3   password3
4       user4   password4
5       user5   password5
6       user6   password6

你可能感兴趣的:(Hive入门)