Hive(一):架构及知识体系

     Hive是一个基于Hadoop的数据仓库,最初由Facebook提供,使用HQL作为查询接口、HDFS作为存储底层、mapReduce作为执行层,设计目的是让SQL技能良好,但Java技能较弱的分析师可以查询海量数据,2008年facebook把Hive项目贡献给Apache。Hive提供了比较完整的SQL功能(本质是将SQL转换为MapReduce),自身最大的缺点就是执行速度慢。Hive有自身的元数据结构描述,可以使用MySqlProstgreSqloracle 等关系型数据库来进行存储,但请注意Hive中的所有数据都存储在HDFS中。虽然 hive 可能存在这样那样的问题,但它作为后续研究 sparkSql 的基础,值得重点研究。

    解释一下经常遇到的 hiveServer1、hiveServer2 ?  早期版本的 hiveServer(即 hiveServer1)因使用Thrift接口的限制,不能处理多于一个客户端的并发请求,在hive-0.11.0版本中重写了hiveServer代码(即 hiveServer2),支持了多客户端的并发和认证,并且为开放API客户端如JDBC、ODBC提供了更好的支持。

目录:

  • hive 架构
  • 知识体系
  • 数据类型
  • Beeline

hive架构:  

  • 用户接口主要有三个:CLI(command line interface)命令行,Client 和 Web UI, CLI是开发过程中常用的接口,在 hive Server2提供新的命令beeline,使用sqlline语法,会有单独的章节来介绍
  • metaStore: hive 的元数据结构描述信息库,可选用不同的关系型数据库来存储,通过配置文件修改、查看数据库配置信息,如下图(/etc/hive/2.4.2.0-258/0/hive-siet.xml)
  • Driver: 解释器、编译器、优化器完成HQL查询语句从词法分析、语法分析、编译、优化以及查询计划的生成。生成的查询计划存储在HDFS中,并在随后由MapReduce调用执行
  • Hive的数据存储在HDFS中,大部分的查询、计算由MapReduce完成

知识体系:

  •  包含shell命令语法、HiveQl语法、访问方式等,如下图:

数据类型:

  • hiveServer2支持以下数据类型,图片来至 (https://cwiki.apache.org/confluence/display/Hive/HiveServer2+Clients)

Beeline:

  • HiveServer2提供了一个新的命令行工具Beeline,它是基于SQLLine CLI的JDBC客户端。
  • 命令: cd  /usr/hdp/2.4.2.0-258/hive/bin   (切换至hive安装bin目录), 通过 beeline 命令进入beeline shell
  • beeline 启动常用参数说明:
    1.  -u<database URL>:  通过 JDBC 访问数据库的 Url 地址
    2.  -n <username>: 访问数据库的用户名
    3.  -p <password> : 访问数据库密码
    4.  -e <query>:Sql 语句执行参数  beeline -e "query_string"
    5.  -f <file>: sql文件执行参数, beeline -f filepath
    6. --color=[true/false]:Control whether color is used for display. Default is false
    7. --help:帮助
  • 命令: beeline
  • 进入 beeline 命令行后,连接数据库 : !connect jdbc:hive2://localhost:10000/default 
  • 输入用户名和密码,进入 beeline shell
  • sqlline 语法: !quit  退出beeline (不要带分号)
  • 多行命令用 ";" 分隔, 注释: “ -- ”  (在里面执行的sql语句要带分号)
原文地址:https://www.cnblogs.com/tgzhu/p/5759610.html