hive on spark运行时 ,读取不到hive元数据问题

部署Hive On Spark时spark读取Hive元数据报错:

Failed to execute spark task, with exception 'org.apache.hadoop.hive.ql.metadata.HiveException(Failed to create spark client.)'
FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. Failed to create spark client.

解决办法:首先查看hive元数据是否启动 ps -ef | grep hive

如果未启动先启动hive元数据:

nohup hive --service metastore 2>&1 &
nohup hive --service hiveserver2 2>&1 &

如果启动依然报错,检查hive-site.xml配置文件,添加如下配置:

    <property>
        <name>hive.metastore.uris</name>
        <value>thrift://node003:9083</value>
    </property>

问题原因:出现上述的情况原因就是spark没有检测到hive存在,所以自己创建了默认元数据。

参考:https://www.jianshu.com/p/ba3bf6559670

原文地址:https://www.cnblogs.com/-courage/p/15402454.html