SparkSQL与Hive的整合

  其他的配置hive基本配置就不记录了!!

1. 拷贝$HIVE_HOME/conf/hive-site.xml $SPARK_HOME/conf/
2. 在$SPARK_HOME/conf/目录中,修改spark-env.sh,添加
    export HIVE_HOME=/usr/local/apache-hive-0.13.1-bin

  注:切记SPARK_CLASSPATH这一行必须的配置:(否则报错)
    export SPARK_CLASSPATH=$HIVE_HOME/lib/mysql-connector-java-5.1.15-bin.jar:$SPARK_CLASSPATH
 注意:

   启动spark-sql    输入set查看执行引擎还是MR 使用如下的命令切换执行引擎

1 使用mr执行引擎
2 set hive.execution.engine=mr;  
3 使用spark执行引擎
4 set hive.execution.engine=spark;
原文地址:https://www.cnblogs.com/bianqi/p/7244036.html