基于spark1.4的Spark-Sql

Author: kwu 

基于spark1.4的Spark-Sql,spark1.4.1在7月15刚公布。提供较好sql支持


1、怎样启动Spark-Sql

启动脚本例如以下

#!/usr/bin/env bash
read  -p "enter your username:" user
read -s -p "enter your password:" pass

sparksql -u jdbc:hive2://bdc:10000 -n $user -p $pass

执行后,依照提示输入username与password,进入查询终端。

 

2、进入Spark-Sql查询,測试例如以下:

select day,count(*) from ods.tracklog groupby day;

 


hive中执行

select day,count(*) from ods.tracklog groupby day;

 

3、查看Spark-Sql监控

http://bdc:4040

 

查看查询计划

 

退出登录

!q

 


原文地址:https://www.cnblogs.com/jhcelue/p/6915474.html