hive spark mysql

我的spark hive架构的问题,是没有把hive/conf/hive.site.xml 放到spark/conf目录下

ln -s  hive/conf/hive.site.xml /spark/conf/

问题解决。之前有在hive.site.xml

<property>
    <name>hive.metastore.uris</name> 
    <value>thrift://启动spark所在ip:9083</value>
</property>
<property> 
     <name>hive.execution.engine</name>
     <value>spark</value>
     <description>set hive engine</description>
</property>
 
又执行了hive --servce metastore &  //后台运行
 
用jps  里面有hive的服务 run.jar  ** 必须要启动hive服务  **
 
用spark-submit 提交任务 
 
ok 
 代码里面  不用书写.config("spark.sql.warehouse.dir", warehouseLocation) 不用配置 因为读取hive-site.xml文件
 
 
 
 
 
 
原文地址:https://www.cnblogs.com/zhx-PRE/p/6874173.html