hive内嵌模式配置流程

解压hive文件
hadoop@master:~$sudo tar -zxvf apache-hive-2.1.0-bin.tar.gz -C /opt/modules

配置环境变量
hadoop@master:~$vi /etc/profile
export HIVE_HOME=/opt/root/hive-1.1.0-cdh5.7.0
export PATH=$HIVE_HOME/bin:$PATH

hadoop@master:~$vi /opt/modules/hive-0.12.0/bin/hive-config.sh
export JAVA_HOME=/opt/modules/jdk1.7.0_79
export HADOOP_HOME=/opt/modules/hadoop-2.6.0
export HIVE_HOME=/opt/modules/hive-0.12.0

拷贝hive-env.sh.template 为hive-env.sh
hadoop@master:~$vi /opt/modules/hive-0.12.0/conf/hive-env.sh
export HADOOP_HOME=/opt/modules/hadoop-2.6.0

更新环境变量使其生效
hadoop@master:~$source /etc/profile

创建HIVE的工作目录
hadoop@master:~$hadoop fs -mkdir /tmp
hadoop@master:~$hadoop fs -mkdir /user/hive/warehouse
hadoop@master:~$hadoop fs -chmod g+w /tmp
hadoop@master:~$hadoop fs -chmod g+w /user/hive/warehouse

设定默认使用derby数据库库作为元数据库
hadoop@master:~$schematool -dbType derby -initSchema

建库
create database 库名;

使用库
use 库名;

建表
create table 表名(
id int,
name string,
pwd String
)row format delimited fields terminated by '截取规则';

create table user(
id int,
name string,
pwd String
)row format delimited fields terminated by ' ';

查询库
show databases;

查询表
show tables;

查看表的描述
desc 表名;

加载数据
1.使用命令加载数据 (hive中使用)
(1.hdfs加载
load data inpath '路径' into table 表名;
(2.本地加载
load data local inpath '路径' into table 表名;

2.将数据文件put到表的目录下
hadoop fs -put 文件名 地址名

原文地址:https://www.cnblogs.com/LEPENGYANG/p/13967212.html