本地调试spark程序出现Please set spark.sql.hive.metastore.jars 一类配置错误的问题

z这个类似问题解决好几次了。。经常忘记这里记录下

1.记得maven compile或者build一下,因为你class需要生成source里面的配置文件,你直接运行可能没生成(我出现过一次直接运行提示找不到资源问题,按理直接跑应该会自动去编译class才对)

2.修改java的版本(我用的是javajdk1.8.0_141解决的,中间试了好几个办法)

3.本地磁盘tmp文件夹看看有没提醒,也可能下面缺少对应文件夹

4.hadoop.home.dir也要配置下(我是D:hadoop-2.7.5hadoop-2.7.5下放了winutils.exe和一些hadoop对应版本的bin文件)

大概能想到就这些,以后有新的在补充

原文地址:https://www.cnblogs.com/yaohaitao/p/12597286.html