Hive内部表和外部表

Hive表分为内部表和外部表

Hive默认建立的表是内部表,内部表create之后,然后load加载hdfs上的数据,会移动物理数据到Hive的数据仓库默认目录(/user/hive/warehouse/xx.db/)下。

内部表drop之后,元数据和物理数据都会删除。

外部表在导入hdfs的数据后,数据并没有移动到自己的数据仓库目录下,也就是说外部表中的数据并不是由它自己来管理的!

外部表drop掉之后,元数据删掉了,但是实际物理数据还存在原位置。

 

以下是示例:

在本地建立vim一个course.txt文件

上传到hdfs文件系统上inner目录下和ext目录下

[root@master hiveTest]# hdfs dfs -put ./course.txt /inner
[root@master hiveTest]# hdfs dfs -put ./course.txt /ext

hive创建内部表

hive> create table db_hive.courseInner(id int,course string) row format delimited fields terminated by ','; 

加载hdfs的inner目录下的course.txt到内部表

hive> load data inpath '/inner/course.txt' into table db_hive.courseInner;

此时,inner目录下的文件已经被移到了hive数据仓库的目录/user/hive/warehouse/db_hive.db/下。

[root@master hiveTest]# hdfs dfs -ls /user/hive/warehouse/db_hive.db

然后执行drop table db_hive.courseInner,则该目录及目录下的数据被删除。


Hive创建外部表,关键字external,location指定数据存放的文件夹。

hive> create external table courseext(id int,course string) row format delimited fields terminated by ',' location '/external' 

此时courseex外部t表就已经链接到这个物理数据,不需要执行load语句了。

执行查询语句,可以查到外部表的数据。

外部表执行drop table courseext,则该表的元数据被删除,但物理数据依然存在,可以通过命令验证。

[root@master hiveTest]# hdfs dfs -ls /external

使用场景:

每天收集到的网站数据,需要做大量的统计数据分析,所以在数据源上可以使用外部表进行存储,方便数据的共享。

在做统计分析时候用到的中间表,结果表可以使用内部表,因为这些数据不需要共享,使用内部表更为合适。

 

原文地址:https://www.cnblogs.com/lucas-zhao/p/11891946.html