hive学习1(hive基本概念)

hive基本概念

hive简介

hive是什么

Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供类SQL查询功能。

为什么使用hive

1)简单易上手。提供了类sql查询语言HQL,提供快速开发的能力。

2)避免了去写MapReduce,减少开发人员的学习成本。

3)统一的元数据管理(HCalalog)。可与pig,presto等共享。

4)为超大数据集设计的计算/扩展能力。MR作为计算引擎,HDFS作为存储系统。

hive的特点

  • 可扩展
    Hive可以自由的扩展集群的规模,一般情况下不需要重启服务。

  • 延展性
    Hive支持用户自定义函数,用户可以根据自己的需求来实现自己的函数。

  • 容错
    良好的容错性,节点出现问题SQL仍可完成执行。

hive的系统架构

hive基本组成

1)用户接口

  • CLI,JDBC/ODBC,WebUI

2)元数据存储(matastore)

  • 默认存储在自带的数据库derby中,线上使用时一般换为MySQL

3)驱动器(Driver)

  • 解析器,编译器,优化器,执行器

4)Hadoop

  • 用MR计算,用HDFS存储

hive各组件基本功能

  • 用户接口主要由三个:CLI、JDBC/ODBC和WebGUI。其中,CLI为shell命令行;JDBC/ODBC是Hive的JAVA实现,与传统数据库JDBC类似;WebGUI是通过浏览器访问Hive

  • 元数据存储:Hive 将元数据存储在数据库中。Hive 中的元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。

  • 解释器、编译器、优化器完成 HQL 查询语句从词法分析、语法分析、编译、优化以及查询计划的生成。生成的查询计划存储在 HDFS 中,并在随后有 MapReduce 调用执行。

Hive与SQL的比较

1)查询语言

  • hive使用类SQL的HQL
  • sql使用sql

2)数据存储位置

  • hive是将数据存储在HDFS中
  • sql可以将数据保存在块设备或者本地文件系统中

3)数据格式

  • Hive 中没有定义专门的数据格式,数据格式可以由用户指定,用户定义数据格式需要指定三个属性:列分隔符(通常为空格、” ”、”x001″)、行分隔符(” ”)以及读取文件数据的方法(Hive 中默认有三个文件格式 TextFile,SequenceFile 以及 RCFile)
  • 数据库中,不同的数据库有不同的存储引擎,定义了自己的数据格式

4)数据更新

  • Hive 中不支持对数据的改写和添加,所有的数据都是在加载的时候中确定好的
  • sql支持数据更新

5)执行延迟

  • hive延迟性高
  • sql延迟性低

6)扩展性

  • hive扩展性好
  • sql扩展性有限

7)索引

  • hive和sql都支持索引

8)分区

hive和sql都支持分区

hive的数据存储

  • hive的所有数据存储基于hadoop的HDFS,hive没有专门的数据存储格式(可支持Text,SequenceFile,ParquetFile,RCFILE等)

  • 在创建表时,指定Hive 数据的列分隔符和行分隔符,Hive 就可以解析数据

  • 存储结构主要包括:数据库、文件、表、视图、索引

  • Hive 中包含以下数据模型:DB、Table,External Table,Partition,Bucket

1) db:在hdfs中表现为${hive.metastore.warehouse.dir}目录下一个文件夹

2) table:在hdfs中表现所属db目录下一个文件夹
3) external table:外部表, 与table类似,不过其数据存放位置可以在任意指定路径。普通表:删除表后,hdfs上的文件都删了;外部表删除后, hdfs上的文件没有删除, 只是把文件删除了
4) partition:在hdfs中表现为table目录下的子目录
5) bucket:桶, 在hdfs中表现为同一个表目录下根据hash散列之后的多个文件, 会根据不同的文件把数据放到不同的文件中

原文地址:https://www.cnblogs.com/wujiadong2014/p/6058552.html